• E-commerce Solution

    Umsatz machen… … 24 Stunden am Tag, 365 Tage im Jahr. Die Anzahl der sogenannten Webshops oder eShops auf dem Marktplatz Internet steigt täglich an.

    Read More
  • Link Building

    Während bei der Onpage- oder Onsite-Optimierung einer Webseite vornehmlich die Struktur und der Inhalt optimiert werden, fokussiert man beim Linkaufbau in erster Linie das Umfeld der betreffenden Webseite. Beim Linkaufbau versucht man die Anzahl der auf die eigene Webseite verweisenden …

    Read More
  • Content Management

    Open Source Software aus Überzeugung Ein Tätigkeitsschwerpunkt von hauptsache.net ist die Entwicklung von Lösungen unter Verwendung von Open Source Software.

    Read More
  • Web Development

    Comming soon!

    Read More
  • SEO Consulting

    Wie „denken“ Suchmaschinen? Suchmaschinen arbeiten auf unterschiedliche Art und Weise. 

    Read More

    Tag Archives: Google

  • Google ergänzt Webmaster Guidelines: Creating pages with little or no original content

    August 12, 2014 7:22 pm - Posted by admin Category:SEO + SEM

    Heute hat Google die englischsprachigen Webmaster Guidelines im Bereich Qualitätsrichtlinien um den Punkt “Creating pages with little or no original content“ ergänzt.

    Little or no original content

    In dem verlinkten Dokument wird beschrieben, dass Google gegen Domains vorgeht, welche viele Seiten ohne erkennbaren Mehrwert für die Nutzer erstellen.

    Als Beispiele werden genannt:

    • automatisch generierter Content
    • Doorway Pages
    • Content aus anderen Quellen wie Scraped Content oder Gastbeiträge mit geringer Qualität
    • Thin Affiliate Sites

    Dass Google gegen solche Seiten vorgeht, ist nicht neu. Jetzt werden in den Webmaster Guidelines aber mehrere explizite Beispiele zusammengefasst

    Zum großen Teil überschneiden sich die Beispiele mit den bereit existierenden Nennungen von “Automatically generated content“, “Doorway Pages”, “Scraped content” und “Participating in affiliate programs without adding sufficient value“.

    Wirklich neu scheint nur der Punkt “Gastbeiträge mit geringer Qualität” (low-quality guest blog posts) zu sein. Solche Beiträge werden gerne für den (nervigen und schlechten) Linkaufbau erstellt. Eventuell schafft Google mit der Ergänzung der Qualitätsrichtlinien jetzt eine Grundlage, um auch die einbindenden Domains zu bestrafen, welche diese Gastbeiträge veröffentlichen.

    In den deutschen Richtlinien für Webmaster ist der Punkt noch nicht enthalten, wird in den nächsten Tagen aber wahrscheinlich ergänzt.

    The post Google ergänzt Webmaster Guidelines: Creating pages with little or no original content appeared first on SISTRIX.

    SISTRIX

  • Tag Archives: Google

  • Warum Google Inhalte mit SSL-Zertifikat bevorzugt (oder auch nicht)

    August 8, 2014 7:17 am - Posted by admin Category:SEO + SEM

    Google hat heute bekannt gegeben, dass die Nutzung eines SSL-Zertifikates ein Ranking-Faktor ist. Inhalte, die über eine verschlüsselte Verbindung (HTTPS) ausgeliefert werden, erhalten durch den Google Algorithmus einen kleinen Bonus gegenüber ihren nicht-verschlüsselten Wettbewerbern.

    In der SEO-Branche wurde bereits lange vermutet, dass die Verschlüsselung ein positives Signal für Google darstellt. Ähnlich wie bei der Nutzung von CDN-Anbietern wird der Aufwand für Einrichtung und Pflege eines SSL-Zertifikates in der Regel nur von Webseitenbetreibern unternommen, die auch entsprechend in hochwertige Inhalte investieren. Diese Korrelation hat Google (jetzt) auch erkannt und nutzt sie für die Sortierung der Ergebnisse.

    Doch wieso hat Google das heute durch den Blogbeitrag öffentlich gemacht? Außer einem Konjunkturprogramm für SSL-Anbieter, bringt dieser Schritt nur Nachteile für die Suchergebnisqualität: die Korrelation zwischen der SSL-Nutzung und guten Inhalten wird in kurzer Zeit deutlich abnehmen und sich vielleicht sogar umkehren („Wieso sollen wir einen 3-Sterne-Text kaufen, wie haben doch das SSL-Zertifikat“). Die öffentliche Bekanntmachung eines konkret benannten, positiven Rankingfaktors ist ein sehr ungewöhnlicher Schritt von Google und in meiner Erinnerung einmalig.

    Google scheint damit also noch andere Interessen zu verfolgen. Wer die Pressemeldungen um Google und Sicherheitsthemen in den letzten Monaten verfolgt hat, wird bemerkt haben, dass Google durch die Veröffentlichung des NSA-Skandals auf dem falschen Fuss erwischt wurde. Spannungen zwischen der NSA und Google werden munter öffentlich ausgetragen und Google unternimmt einige Anstrengungen, um das simple Mitschneiden von Internet-Verkehr zu vermeiden. Vor einigen Tagen hat Google erst bekannt gegeben, nun auch internen (!) GMail-Traffic zu verschlüsseln, sehr gute Sicherheitsexperten kümmern sich um allgemeine Internet-Software und jetzt sorgt Google dafür, dass vermutlich bald ein sehr großer Teil des relevanten Internet-Verkehrs verschlüsselt abläuft.

    Da heute von der BBC über die Bild bis zu den Fachmedien vermutlich jeder über das Thema berichtet hat, dürften sich spätestens morgen alle Agenturen und Inhouse-SEOs mit der Umstellung auf SSL beschäftigen. Gute Gründe dagegen gibt es nun nicht mehr. Bleibt die Frage: gibt es dieses Ranking-Plus für SSL nun wirklich? Wen interessiert’s …

    The post Warum Google Inhalte mit SSL-Zertifikat bevorzugt (oder auch nicht) appeared first on SISTRIX.

    SISTRIX

  • Tag Archives: Google

  • Bewertet Google Links mit den Daten vom Chrome Browser?

    August 6, 2014 7:29 pm - Posted by admin Category:SEO + SEM

    Bewertung LinksAm 14. Februar 2012 wurde das Google Patent “Ranking documents based on user behavior and/or feature data” veröffentlicht.

    Vereinfacht ausgedrückt handelt die Patentschrift davon, dass Links anhand des Nutzerverhaltens bewertet und gewichtet werden. Ein Link, der häufig von Nutzern geklickt wird, erhält mehr Gewicht als ein Link, der selten geklickt wird.

    Das Patent stellt eine wichtige Weiterentwicklung des ursprünglichen PageRank-Algorithmus dar, der jeden Link auf einer Seite unabhängig vom tatsächlichen Klickverhalten noch gleich stark gewichtet hat. Aber wie kann man sich die Bewertung von Links aufgrund des Nutzerverhaltens konkret vorstellen und welche Daten kann Google dafür verwenden?

    Auswertung des Nutzerverhaltens zur Bekämpfung von Link-Spam

    Denkt man ein wenig über die Gewichtung von Links anhand des tatsächlichen Klickverhaltens nach, so ist das von Google eine sehr clevere Lösung, dem künstlichen Linkaufbau zur Manipulation der Suchergebnisse etwas entgegenzusetzen.

    Gekaufte Links und Spamlinks werden tendenziell eher auf einer Seite versteckt. Sie stehen im Footer, in speziellen Boxen am Seitenrand oder sind sogar komplett unsichtbar gemacht worden. Doch wenn die Nutzer die Links kaum sehen und die Links auch in vielen Fällen nicht themenrelevant sind, werden sie diese Links auch nicht klicken. Entsprechend gering werden die Links dann nach den Ideen des Patents gewichtet.

    Wenn gekaufte Links nicht versteckt werden, handelt es sich oft um künstliche Websites, die nur für den Linkverkauf erstellt wurden (z.B. Blogs auf Basis von Expired Domains). Wenn es dort keine echten Nutzer gibt, können diese auch keine verkauften Links klicken. Die dort verkauften Links sind dann praktisch wertlos.

    Wie kann Google das Nutzerverhalten zur Beurteilung von Links messen?

    Die große Frage ist, welche Daten Google für die Gewichtung von Links verwendet. Wie kann Google messen, welcher Link wie häufig von Nutzern einer Website geklickt wird? Im SEO-Bereich werden immer wieder zwei Google-Angebote als mögliche Daten-Quellen genannt. Zum einen Google Analytics und zum anderen der Google Chrome Browser.

    Persönlich glaube ich aus zwei Gründen nicht, dass Google zu diesem Zweck die Daten von Google Analytics verwendet. Zum einen betont Google immer wieder, dass sie für einen solchen Zweck keine Analytics-Daten verwenden. Sollte das nicht der Wahrheit entsprechen, käme es irgendwann heraus. Warum sollten Google hier ohne Not seine Glaubwürdigkeit aufs Spiel setzen?

    Der zweite Grund ist vielleicht noch wichtiger. Die Analytics-Daten sind nicht besonders gut geeignet, um das Klickverhalten von Links auf allen Domains zu messen. Nur ein gewisser Prozentsatz der Websites hat Google Analytics integriert. Laut builtwith.com nutzen aktuell 55,7 Prozent der Quantcast Top Million Websites Google Analytics. Zu diesen Websits hat Google alle Daten, zu den restlichen 44,3 Prozent jedoch überhaupt keine Daten. Das ist eine ungünstige Verteilung. Nimmt man die gesamte Stichprobe von builtwith.com mit aktuell über 289 Millionen Domains, dann haben sogar nur 9,2 Prozent Google Analytics integriert. Auf Basis von Analytics-Daten wäre das System mehr als nur halb blind. Durch den Verzicht auf Google Analytics könnte jede Website, die Links verkaufen möchte, das System ganz einfach austricksen und in den Stealth-Modus gehen.

    Google Chrome Browser

    Viel besser wären die Daten geeignet, die Google über den Chrome Browser gewinnen kann. Weltweit hat der Chrome Browser nach Zahlen von StatCounter bei Desktop-Computern inzwischen einen Marktanteil von rund 50 Prozent.

    Marktanteile Desktop-Browser weltweit

    Deutschland ist eines der wenigen Länder auf der Welt, in denen der Chrome Browser noch nicht zum Marktführer geworden ist. Aber auch hierzulande liegt der Desktop-Marktanteil schon bei 28 Prozent. Nur der Firefox-Browser wird in Deutschland häufiger genutzt.

    Nutzung Browser weltweit August 2014

    Mit dieser breiten Datenbasis könnte Google die tatsächliche Nutzung von praktisch jeder Website sehr präzise messen. Ebenso lassen sich die Besucherströme über Verlinkungen zwischen verschiedenen Websites ermitteln.

    Mir fällt keine Datenquelle ein, mit denen man Links anhand des Nutzerverhaltens besser bewerten könnte. Keine Website kann sich vor den Chrome-Nutzern verstecken.

    Aber übermittelt der Chrome Browser tatsächlich Daten an Google, welcher Link wie häufig geklickt wurde?

    Chrome versucht zu erraten, welcher Link wie oft geklickt wird

    Die Frage lässt sich sehr leicht beantworten. In den erweiterten Chrome-Einstellungen (Einstellungen > Erweiterte Einstellungen anzeigen) findet man im Bereich Datenschutz eine Funktion, die sich „Netzwerkaktionen voraussehen, um die Ladegeschwindigkeit zu verbessern“ nennt. Diese Funktion ist standardmäßig bei allen Nutzern aktiviert. Nur ein kleiner Prozentsatz dürfte sie deaktiviert haben.

    Google Chrome Funktion Netzweraktionen voraussehen

    Die erweiterte Einstellung “Netzwerkaktionen voraussehen, um die Ladegeschwindigkeit zu verbessern” ist standardmäßig im Google Chrome Browser aktiviert.

    Worum geht es bei dieser Funktion? Wenn ein Nutzer mit dem Chrome Browser eine URL aufruft, analysiert Google die Links auf der Seite und versucht zu erraten, welchen Link der Nutzer als nächstes anklicken wird. Die Zielseiten mit den höchsten Wahrscheinlichkeiten werden dann im Hintergrund bereits geladen. Klickt der Nutzer tatsächlich auf einen dieser Links, ist die Seite bereits vorab geladen. Auf diese Weise ermöglicht der Chrome Browser ein sehr schnelles Surf-Erlebnis.

    Google beschreibt die Funktion in der Chrome-Hilfe wie folgt:

    Über diese Funktion: Browser verwenden zum Laden einer Webseite die IP-Adresse. Wenn Sie eine Webseite besuchen, kann Chrome die IP-Adressen aller Links auf der Website suchen und Links, auf die Sie vermutlich als Nächstes klicken werden, bereits vorab abrufen. Mithilfe der Pre-Rendering- und Vorabruf-Technologie können Websites Links, die Sie möglicherweise als Nächstes aufrufen, schneller laden.

    Mit anderen Worten bedeutet die Vorabruf-Technologie aber auch, dass Google bei jedem Seitenaufruf über den Chrome-Browser einen Algorithmus trainiert, der die Klickwahrscheinlichkeit von Links bewertet. Und das mit einem weltweiten Marktanteil von 50 Prozent bei den Desktop-Browsern. Wir sprechen hier also nicht nur von irgendeiner Stichprobe, sondern von einer “halben Vollerhebung” über praktisch alle Domains. Wer braucht da noch Analytics-Daten, die für einen großen Prozentsatz der Domains fehlen, zur Bewertung von Links?

    Fazit

    Die Vorabruf-Technologie bei Chrome ist die perfekte Ergänzung und der ideale Datenlieferant für das Patent „Ranking documents based on user behavior and/or feature data“.

    Sollte Google nach diesem Verfahren Links bewerten, dann ist ein Link für die Suchmaschinenoptimierung um so wertvoller, je häufiger er von echten Besuchern auch tatsächlich geklickt wird. Das ist bei echten Empfehlungen in Form von echten Links entsprechend stärker der Fall als bei den meisten unnatürlichen und gekauften Links.

    Natürlich wissen wir nicht, ob Google das Patent in dieser Form auch tatsächlich anwendet und ob für die Umsetzung die Chrome-Daten herangezogen werden. Bei den deutlichen Fortschritten, die Google in den letzen Jahren bei der Bekämpfung von Spam-Links gemacht hat, ist diese Erklärung aber mein persönlicher Favorit.

    Was denkt Ihr über die Funktion „Netzwerkaktionen voraussehen, um die Ladegeschwindigkeit zu verbessern“? Gibt es Gründe, warum Google diese wertvollen Daten nicht auch für seinen Ranking-Algorithmus nutzen würde?

    The post Bewertet Google Links mit den Daten vom Chrome Browser? appeared first on SISTRIX.

    SISTRIX

  • Tag Archives: Google

  • Alle haben auf Google Panda 4.0 gewartet. Aber was dann passierte … wow!

    Juni 9, 2014 7:08 am - Posted by admin Category:SEO + SEM

    Heftig: seit Mittwoch hält Google die SEO-Branche ordentlich auf Trapp – die umfangreichsten Ranking-Veränderungen seit langer Zeit fanden konzentriert in den letzten Tagen statt. Im Gegensatz zu den letzten größeren Updates hat Google den Schwierigkeitsgrad erhöht. Wieso das so ist und welche ersten Rückschlüsse sich bereits ziehen lassen, möchte ich in diesem Blogposting erläutern.

    Drei Updates in wenigen Tagen
    Die Ranking-Verschiebungen der letzten Tage lassen sich in meinen Augen nicht auf eine einzelne Ursache zurückführen, sondern es hat mindestens drei, voneinander unabhängige Updates gegeben. Den breitesten Einfluss mit Effekten auf die meisten unterschiedlichen Domains hat dabei sicherlich die vierte Version des Panda-Algorithmus von Mittwoch. Wie schon zuvor versucht Google mit dem Panda-Update die Qualität von Inhalten in den SERPs zu verbessern. Galt die erste Version noch klassischen Content-Farmen wie Ehow.com, hat Google den Algorithmus kontinuierlich ausgeweitet und war deswegen in die Kritik geraten. Version 4.0 soll nun helfen, die Auswirkungen genauer und gradueller auszusteuern.

    Payday Loan 2.0, das zweite Update, wurde am letzten Wochenende in die freie Wildbahn entlassen. Ziel sind Keywords, die Ziel von Spam sind und bei denen es um nennenswerte Geldbeträge geht – daher auch der Name „Payday Loan“. Von diesem Update sind deutlich weniger Domains und Keywords betroffen. Auch geht es hauptsächlich um Märkte, die noch nicht so stark im Fokus von Google-Spamwächtern sind wie die USA oder auch Deutschland. Zusätzlich vermute ich, dass Google mit dieser Algorithmus-Anpassung insbesondere illegale SEO-Methoden wie Links von gehackten WordPress-Blogs bekämpft.

    si-ebay-bhp

    Die dritte Ursache ist kein Update im engeren Sinne, sondern scheint mir durch manuelle Eingriffe von Google erklärbar zu sein. Bei Ebay.de (und weiteren Länderdomains von Ebay) hat Google ein sehr starkes Verzeichnis nahezu vollständig aus dem Ranking herausgenommen. Eingriffe dieser Art habe ich bislang nur als Auswirkung von manuellen Aktionen gesehen – der Algorithmus ist vorsichtiger. Aber auch der Absturz sowie die Rückkehr von Bwin.com und thematisch ähnlichen Seiten scheint keine algorithmische Ursache zu haben.

    Das richtige Update identifizieren
    Verlieren die Domain oder große Teilbereiche wie Hostnamen/Verzeichnisse innerhalb eines Tages ihre Sichtbarkeit, so ist ein manuelle Eingriff die wahrscheinlichste Ursache. Hier spricht man dann allerdings von einer Penalty und nicht von einem Algorithmus-Update. Dieser Fall tritt in der Gesamtbetrachtung aller Rankingveränderungen selten auf und wird bei den wenigsten Fällen die Ursache sein.

    Die Unterscheidung zwischen Payday-Loan- und Panda-Update ist da schon etwas schwieriger: bei beiden Updaten handelt es sich um Algorithmus-Veränderungen, die eine Verbesserung der SERP-Qualität zum Ziel haben. Für eine zweifelsfreie Identifizierung sind tägliche Ranking- und Sichtbarkeitsdaten, wie wir sie im SISTRIX Optimizer anbieten, hilfreich: das Payday-Loan-Update lief während des Wochenendes, Panda wurde Mittwoch eingespielt.

    Aber auch ohne diese Daten gibt es wichtige Hinweise auf das betreffende Update. Dreht sich das Thema einer Seite um sehr lukrative und sehr umkämpfte „Money-Keywords“, für deren Optimierung nicht nur die Google-Richtlinien, sondern auch gesetzliche Grenzen überschritten werden? Dann sollte das Payday-Loan-Update näher in Betracht gezogen werden. In den allermeisten Fällen dieser Woche wird allerdings Panda 4.0 die Ursache für Rankingveränderungen sein. Daher beziehen sich die folgenden Beobachtungen auch auf Seiten, die von Panda 4.0 betroffen sind:

    Themenseiten sind in Bewegung
    Auffällig ist, dass viele Themenseiten der großen Zeitungen an Sichtbarkeit in Google verloren haben – zwar nicht massiv aber doch ging es für diese Seitentypen von spiegel.de, zeit.de, sueddeutsche.de und welt.de zeitgleich nach unten. Es gibt aber auch Ausnahmen: so hat der entsprechende Bereich von bild.de durch das Panda-Update nicht verloren.

    si-themenseiten

    Auch Downloadseiten reagieren auf Panda 4.0
    Ebenfalls gibt es sichtbare Veränderungen bei Downloadseiten. So geht es für den Platzhirsch Softonic.de mit einem Verzeichnis ein gutes Stück nach unten aber auch der Apple ITunes-Store muss Federn lassen. Auf der anderen Seite gewinnt das Download-Verzeichnis von computerbild.de dazu.

    si-downloadseiten

    Viele betroffene Domains haben Panda-Erfahrung
    Bei vielen Domains, die durch Panda gewonnen oder verloren haben, gab es in der Vergangenheit bereits Reaktionen auf Panda-Updates. Deutlich lässt sich das bei Geschenke.de beobachten – bei ersten internationalen Panda-Update hat die Domain massiv an Sichtbarkeit verloren und konnte jetzt, durch Panda 4.0 immerhin den deutlichen Abwärtstrend stoppen. So einen Verlauf sieht man bei zahlreichen Domains.

    si-geschenkede

    Redaktionelle Inhalte gehören zu den Gewinnern
    Häufig ist zu sehen, dass Verzeichnisse oder Domains mit umfangreichen redaktionellen Inhalten zu den Gewinnern des Updates gehören. Zwar sind die Ausschläge nach oben begrenzt aber doch messbar. Google scheint seinem Ziel, (gute) Inhalte zu erkennen und besser zu ranken also ein Stück näher zu kommen.

    toolbox-chip

    The post Alle haben auf Google Panda 4.0 gewartet. Aber was dann passierte … wow! appeared first on SISTRIX.

    SISTRIX

  • Tag Archives: Google

  • Kommentar zu “Macht Google jetzt das Internet kaputt?”

    Juni 8, 2014 1:09 pm - Posted by admin Category:SEO + SEM

    In der vergangenen Woche erschien auf welt.de ein Artikel mit dem Titel „Neue Suchalgorithmen – Macht Google jetzt das Internet kaputt?“. Grundsätzlich befürworte ich einen kritischen Umgang mit der stetig wachsenden Marktmacht von Google. Dieser Beitrag strotzte jedoch derart vor Fehlern, dass man ihn nicht umkommentiert lassen kann.

    Zitate:
    „Die Änderungen tragen putzige Namen wie Panda oder Pinguin, doch mit ihnen macht Google ernst im ständigen Kampf gegen Werbe-Spammer und Suchmaschinenoptimierer (SEO).“

    „Google kämpft einen ständigen Kampf gegen die SEO-Experten, setzt seit Jahren auf immer neue Kriterien, um den Spam aus den Suchergebnissen fernzuhalten.“

    In dem Artikel werden Begriffe wie Werbe-Spammer und SEO-Experten mehrfach gleichgesetzt und als Synonym verwendet. Das ist grundsätzlich falsch. Es bringt eine ganze Branche zu Unrecht in Verruf. Google kämpft keinen Kampf gegen SEOs. SEO-Experten helfen Websites barrierefrei für Google zu gestalten. SEO-Experten kümmern sich darum, dass die Website-Anbieter die Sprache der Suchmaschinen-Nutzer sprechen. Die Suchmaschine kann auf diese Weise die Inhalte besser verstehen und bessere Suchergebnisse liefern. Das ist eine klassische Win-Win-Situation.

    Ohne SEOs würde Bosch seine Waschmaschinen im Internet wahrscheinlich immer noch Waschvollautomaten nennen und nicht gefunden werden. Auch wüsste Google nicht, dass in Hamburg das “Kundenzentrum der Freien und Hansestadt Hamburg” für Melde- und Ausweisangelegenheiten zuständig ist und für Suchbegriffe wie „Meldeamt Hamburg“ sowie „Einwohnermeldeamt Hamburg“ ein guter Treffer ist.

    Folgerichtig kämpft Google nicht gegen SEO-Experten, sondern unterstützt sie bei deren Arbeit. Hier möchte ich exemplarisch nur drei Beispiele auflisten:

    1. Google Ratgeber „Einführung in die Suchmaschinenoptimierung
    2. Regelmäßige Google Hangouts mit John Mueller zur Beantwortung von SEO-Fragen durch Google
    3. Google Webmaster Tools

    Richtig ist, dass Google gegen Webspam kämpft. Und das ist gut so. Auch wenn ein (großer) Teil der Spammer SEO-Techniken einsetzen, sind im Umkehrschluss nicht alle SEOs Spammer.

    Der Artikel lässt aber nicht nur eine grundsätzliche Differenzierung zwischen SEO und Spam vermissen, es mangelt auch an Fachwissen.

    Zitat:
    „Panda sucht nach Link-Spam – und bestraft ihn durch Bedeutungsverlust der verlinkten Seiten in Googles Suchergebnissen.“

    Hier scheint der Autor Panda-Updates und Penguin-Updates ein wenig durcheinander zu bringen.

    Zitat:

    „Doch auch Giganten im Netz verlieren durch Panda 4 erheblich an Sichtbarkeit: Ebay hat laut Searchmetrics über Nacht 50 Prozent seiner Sichtbarkeit bei Google verloren, die Ratgeberseite Ask.com sogar 70 Prozent – ein Desaster für die Betreiber.“

    Bei Ebay ist hauptsächlich ein Verzeichnis mit Doorway Pages für die Verluste verantwortlich und hat praktisch seine komplette Sichtbarkeit verloren. Daher spricht vieles dafür, dass Ebay nicht vom Panda 4 Update betroffen ist, sondern zeitgleich eine manuelle Penalty für das Verzeichnis erhalten hat. Eine solche Maßnahme seitens Google wäre vertretbar, da die Seiten durchaus als Brückenseiten oder SERPs in SERPs interpretiert werden können und damit gegen die Google Richtlinien verstoßen würden. Wir haben das in einem Blogpost zum Panda 4.0 Update näher erörtert.

    Von diesem Spam-Versuch seitens Ebay lässt sich der Autor aber nicht seine schöne Geschichte „Ebay steht zumindest indirekt in Konkurrenz mit Googles Shopping-Seiten“ kaputt machen.

    Zitat:
    „Selbst die Seite des Norddeutschen Rundfunks verlor 20 Prozent ihres Google-Ranks – warum das so ist, das bleibt Pandas Geheimnis.“

    Auch hier wird Korrelation und Kausalität einfach gleichgesetzt und nicht weiter hinterfragt. Wenn die Website des Norddeutschen Rundfunks zeitgleich zum Panda 4.0 Update deutlich an Sichtbarkeit verliert, dann muss ja wohl das Panda Update dafür verantwortlich sein und der Beleg ist erbracht, wie ungerecht und voller Willkür dieses Update ist.

    In der Tat gehört ndr.de nicht zu den Websites, die Google mit einem Panda-Update aus den Suchergebnissen entfernen möchte. Aber anstatt reflexartig die Qualität des Updates zu hinterfragen, sollte man zuerst die Prämisse hinterfragen und sich die Mühe machen, nach anderen Ursachen zu recherchieren.

    Wenn eine solche Seite mit Qualitätsinhalten deutlich an Sichtbarkeit verliert, vermute ich den Fehler eher beim Websitebetreiber. Vielleicht hat er zu wenig auf SEO geachtet, weil der Branche immer wieder zu Unrecht so ein schlechter Ruf angedichtet wird. Meist passieren solche technischen Fehler dann, wenn es größere Änderungen auf der Website gegeben hat. Eine Recherche in Form einer Google Suche nach „Relaunch ndr.de 2014“ liefert dann auch in Sekundenschnelle die Erklärung für den Sichtbarkeitseinbruch von ndr.de. Seit dem 13.05.2014 ist der neue Webauftritt des NDR online. Ohne mir die Rankingverluste näher angeschaut zu haben, gehe ich davon aus, dass nicht ausreichend 301-Weiterleitungen von den alten URLs auf die neuen URLs gesetzt wurden. Manchmal können SEOs sehr hilfreich sein, auch für die Sichtbarkeit von Qualitätsinhalten in den Suchergebnissen und die Qualität des Webs.

    Ich möchte an dieser Stelle nicht Searchmetrics einen Vorwurf machen, dass ndr.de in deren Verliererliste aufgetaucht ist. Searchmetrics schreibt eindeutige Warnhinweise bezüglich der vorläufigen Analyse und möglicher Fehlinterpretationen direkt über seine Daten. Die Beachtung dieser Hinweise hätte aber wieder eine schöne Geschichte beschädigt. Wo würde die Story bleiben, wenn Google mit dem Panda Update nicht eindeutig Unschuldige wie den Norddeutschen Rundfunk getroffen hätte?

    Dieses Problem zieht sich leider durch den ganzen Welt-Artikel, ohne dass ich jetzt auf jeden Punkt eingehen möchte. Was der Autor Benedikt Fuest offenbar überhaupt nicht berücksichtigt, ist die Tatsache, dass es sich bei den Rankingveränderungen immer um ein Nullsummenspiel handelt. Was die eine Website verliert, müssen andere Websites gewinnen. Das Ziel von Google ist es, die Qualität der Suchergebnisse insgesamt zu verbessern. Es geht darum, schlechte Treffer durch bessere Treffer zu ersetzten. Davon profitieren zuerst die Nutzer und dadurch natürlich auch Google.

    Was Qualität in den Suchergebnissen bedeutet, bestimmen übrigens zu einem immer größeren Teil die Nutzer selbst und nicht ein bösartiger und geheimer Algorithmus, der das Internet kaputt macht. Gerade das Panda Update wurde auf Grundlage von Bewertungen der Nutzer gegenüber Websites entwickelt. Die Fragenliste zur Beurteilung der Qualität von Websites wurde von Google veröffentlicht.

    So bleibt am Ende die Frage, was will der Autor mit diesem Artikel Google eigentlich vorwerfen?

    Darf Google kein Spam bekämpfen? Darf Google keine Spam-Links entwerten? Darf Google nicht versuchen die Qualität der Suchergebnisse zu verbessern? Sollen alte Websites ein Gewohnheitsrecht auf gute Rankings erhalten und sich nicht mehr dem fortschreitenden Wettbewerbs stellen?

    Ich finde es gut, dass der Axel Springer Verlag eine öffentliche Diskussion um die Marktmacht von Google angestoßen hat. Solche Artikel wirken aber eher kontraproduktiv und sind kein gutes Argument für den Schutz des Qualitätsjournalismus.

    The post Kommentar zu “Macht Google jetzt das Internet kaputt?” appeared first on SISTRIX.

    SISTRIX

  • Tag Archives: Google

  • Google nennt bestraftes Linknetzwerk

    März 15, 2014 7:08 pm - Posted by admin Category:SEO + SEM

    Matt Cutts, Leiter des (Anti)-Webspam-Teams bei Google, hat gestern ein erstes deutsches Linknetzwerk genannt, gegen das Google vorgeht. Nach seiner ersten Ankündigung vor rund 6 Wochen hatte Cutts zwar bereits erklärt, gegen ein agenturinternes Netzwerk vorzugehen, allerdings keine Namen genannt. In dem Tweet von gestern wird neben der Berliner Firma „efamous“ ebenfalls das Vorgehen gegen eine weitere Agentur erwähnt.

    In welcher Form Google konkret gegen die genannten Linknetzwerke, die klar gegen die Google Quality-Richtlinien verstoßen, vorgeht, ist noch nicht bekannt. Die Branche ist seit der ersten Ankündigung angespannt. Gerüchteweise raten erste Linknetzwerkbetreiber ihren Mitarbeitern bereits, sich nach einem neuen Job umzusehen. Ein französisches Linknetzwerk hat nach der Erwähnung durch Google die Geschäfte gleich ganz eingestellt. Wieso Google die Betreiber von Linknetzwerken öffentlich nennt, Agenturen, die eigene Netzwerke für ihre Kunden aufgebaut haben allerdings von dieser Öffentlichkeit verschont, ist nicht bekannt und wirft ein seltsames Licht auf das Vorgehen von Google.

    So unangenehm diese Aktion von Google für die Branche aktuell auch ist und in den nächsten Monaten auch noch sein wird, so wichtig und richtig wird dieser Schritt mittelfristig auch aus SEO-Sicht sein. Der unnatürliche Aufbau von Links verstößt seit Gründung von Google gegen die Google-Richtlinien und ist trotzdem in zahlreichen Bereichen unabdingbare Bedingung für erfolgreiche Rankings. In den letzten Jahren hat sich er Handel mit Links deutlich professionalisiert und ist dadurch für Käufer und Verkäufer sehr einfach geworden. Dagegen geht Google nun vor und versucht die schlimmsten Auswüchse des Linkhandels (bei der Zwischenhändler gerne mehrstellige Prozentbeträge an Marge aufschlagen) einzudämmen. Die Aktion ist nicht das Ende des Linkkaufs, Google setzt das Spiel lediglich auf einem neuen Level fort.

    The post Google nennt bestraftes Linknetzwerk appeared first on SISTRIX.

    SISTRIX

  • Tag Archives: Google

  • Regalplatzoptimierung bei Google

    Februar 13, 2014 1:42 am - Posted by admin Category:SEO + SEM

    Welche zwei Dinge haben eine Suchergebnisseite von Google und ein Regal im Supermarkt gemeinsam?

    1. Sie dienen einem bestimmten Ziel.
    2. Sie verfügen nur über ein begrenztes Platzangebot (Engpass)

    Zeitschriftenregal

    Der Engpass begrenzt jeweils die Leistungsfähigkeit des ganzen Systems. Der Supermarkt könnte mit mehr Regalfläche mehr Geld verdienen, da er dann eine größere Auswahl von Produkten anbieten und so mehr Kaufbedürfnisse befriedigen könnte. Ebenso könnte Google mit mehr als 10 organischen Treffern auf der ersten Suchergebnisseite mehr Suchanfragen zufriedenstellend beantworten (Searcher Satisfaction).

    Sowohl Google als auch der Supermarkt stehen vor dem Problem das optimale Angebot für ein begrenztes Platzangebot auszuwählen. Während das übliche Vorgehen beim Supermarkt bekannt ist und zu den Grundaufgaben der Betriebswirtschaftslehre gehört, wird über das Vorgehen bei Google viel gerätselt. Es lohnt sich einen Blick auf die Auswahlentscheidung des Supermarktes zu werfen. Vielleicht lernen wir dabei auch eine ganze Menge über die Auswahl der Treffer bei Google.

    Anmerkung: Selbstverständlich verfolgt auch Google das Ziel der Gewinnmaximierung. Betrachtungsgegenstand in diesem Beitrag sind die kostenlosen, organischen Treffer auf den Suchergebnisseiten. Wir gehen in diesem Beitrag aber vereinfachend davon aus, dass die organischen Treffer bei Google das Ziel der Nutzerzufriedenheit und die AdWords-Anzeigen das Ziel der Gewinnmaximierung verfolgen. Die Wechselwirkungen zwischen organischen Treffern und AdWords-Anzeigen sind nicht Inhalt dieses Beitrags.

    Warum zeigt Google nicht einfach mehr als 10 Treffer an?

    Auf den ersten Blick wäre es für Google am einfachsten die Zufriedenheit der Nutzer mit den Suchergebnissen zu steigern, indem sie mehr als 10 organische Treffer auf einer Suchergebnisseite (SERP) anzeigen. Google hat zur dieser Idee seine Nutzer befragt und bekam von diesen tatsächlich die Antwort, dass sie sich mehr Ergebnisse wünschen. Mehr ist mehr.

    Laut der ehemaligen Vizepräsidentin Marissa Mayer führte Google daraufhin Tests mit 30 Treffern pro SERP durch. Der Umsatz und Traffic fiel bei diesem Experiment um 20 Prozent gegenüber der Variante mit 10 Treffern. Wie ist das zu erklären?

    Google benötigte 0,4 Sekunden um eine SERP mit 10 Treffern zusammenzustellen und auszuliefern. Die Seite mit 30 Treffern benötigte hingegen 0,9 Sekunden. Dieser Unterschied von 0,5 Sekunden zerstörte die Nutzerzufriedenheit und führte zu einem neuen Engpass, der 20 Prozent Traffic kostete. Daher beschränkt sich Google bis heute auf 10 organische Treffer.

    Grundsätzlich das gleiche Problem hat der Supermarkt. Er könnte theoretisch mehr Regale aufstellen. Aber eine solche Maßnahme würde die Gänge für die Kunden verengen und damit das gesamte Einkaufserlebnis stark beeinträchtigen. Somit ist auch das Angebot im Supermarkt durch ein bestimmtes Platzangebot limitiert.

    Rechenaufgabe: Optimiere das Regal im Supermarkt

    Nachdem der Engpass bekannt ist, schauen wir uns am besten ein einfaches Beispiel an. Nehmen wir an, in einem Supermarkt steht ein Regal mit Zeitungen und Zeitschriften. Das Regal verfügt über 10 Regalreihen, die mit Printprodukten gefüllt werden können. Dem Supermarkt-Manager stehen folgende Daten zur Verfügung.

    Daten für die Regalplatzoptimierung im Supermarkt

    Daten für die Regalplatzoptimierung im Supermarkt

    Anmerkung: Der geneigte Leser mag mir verzeigen, dass ich in diesem Beispiel den in der Betriebswirtschaft korrekten Begriff „Deckungsbeitrag“ und nicht den umgangssprachlichen Begriff „Gewinn“ verwende. Ich kann nicht anders. Zur Erklärung: Gewinn = Deckungsbeitrag – fixe Kosten (Gebäudemiete, Personalkosten usw.).

    Welche Änderungen sollte der Supermarkt-Manager bei bei der Zusammenstellung des Angebotes vornehmen, um zukünftig mehr Deckungsbeitrag mit dem Regal zur erwirtschaften? Sollte das Sortiment verändert werden? Kennst Du den richtigen Lösungsweg?

    Lösung Rechenbeispiel

    Die Lösung ist sehr einfach, wenn man einmal das Prinzip der Engpassoptimierung verinnerlicht hat. Das ganze System muss auf eine optimale Ausnutzung des Engpasses ausgerichtet werden, in diesem Fall auf die vorhandene Regalfläche.

    Lösung Regalplatzoptimierung

    Der Deckungsbeitrag pro Produktgruppe muss durch die Anzahl belegter Regalreihen geteilt werden, um den relativen Deckungsbeitrag pro Produktgruppe zu erhalten. Das Angebot von Produktgruppen mit einem relativen Deckungsbeitrag >200 € wird erweitert und das Angebot von Produktgruppen mit einem relativen Deckungsbeitrag <200 reduziert.

    Die entscheidende Kennzahl ist nicht der in Tabelle 1 angegebene Deckungsbeitrag pro Produktgruppe (Publikumszeitschriften, Fachzeitschriften usw.). Für eine Optimierung des Regals benötigen wir den Deckungsbeitrag pro Engpassbeanspruchung (relativer Deckungsbeitrag pro Regalreihe). Konkret fragen wir uns also nicht, wie viel Deckungsbeitrag die einzelnen Produktgruppen insgesamt erwirtschaften, sondern wie viel Deckungsbeitrag sie pro beanspruchten Regalfläche erwirtschaften. Dazu teilen wir den Deckungsbeitrag pro Produktgruppe einfach durch die Anzahl belegter Regalreihen und erhalten so den relativen Deckungsbeitrag. Wir alle kennen das Prinzip aus dem Online-Marketing, wenn wir mit Kennzahlen wie der Click-Through-Rate (CTR) arbeiten und ein Anzahl Klicks in ein Verhältnis zur Engpassbeanspruchung (Impression) setzen.

    Relativer Deckungsbeitrag pro ProduktgruppeIm Schnitt erzielen die 10 Regalreihen einen Deckungsbeitrag in Höhe von 200 € (2.000 € DB : 10 Regale). Die Fachzeitschriften erzielen pro Regalreihe nur 150 EUR. Sie sind damit die unwirtschaftlichste Produktgruppe. Insgesamt erzielen sie nach den Publikumszeitschriften mit 450 EUR zwar den zweithöchsten Deckungsbeitrag. Allerdings belegen sie auch 3 Regalreihen und damit 30 Prozent des Engpasses. Sie erwirtschafte aber nur 22,5 Prozent des Deckungsbeitrages. Ein Teil dieses Regalplatzes könnte daher besser genutzt werden.

    Die Comics erzielen insgesamt nur 300 EUR Deckungsbeitrag, aber sie belegen auch nur 1 Regalreihe. Sie sind mit einem relativen Deckungsbeitrag in Höhe von 300 EUR die wirtschaftlichste Produktgruppe.

    Die Optimierung kann jetzt ganz einfach erfolgen. Das Angebot an allen Produktgruppen, die einen unterdurchschnittlichen relativen Deckungsbeitrag erwirtschaften (< 200 EUR), sollte reduziert werden zugunsten von Produktgruppen, die einen überdurchschnittlichen (> 200) relativen Deckungsbeitrag erzielen.

    In unserem Beispiel sollte der Supermarkt-Manager also weniger Fachzeitschriften und weniger Zeitungen in das Regal stellen und den frei gewordenen Platz versuchsweise mit Comics und Publikumszeitschriften auffüllen. Eventuell lohnt es sich auch eine weitere Produktgruppe wie z.B. Taschenbücher anzubieten. Das langfristige Ziel ist den durchschnittlichen Deckungsbeitrag pro Regalreihe zu steigern.

    Es gibt keine exakte Lösung, da der Grenznutzen der Produktgruppen unbekannt ist. Der Manager weiß nicht, ob er das Comic-Angebot um 10, 50 oder 100 Prozent steigern soll. Bekannt ist nur die Richtung. Es bleibt ihm nichts anderes übrig als sich durch Tests iterativ an die optimale Lösung heranzutasten. Nach der Umstellung des Angebots beginnt ein neuer Kreislauf mit neuen Daten.

    In der Praxis sind diese Entscheidungsprozesse selbstverständlich komplexer, es liegen mehr Informationen, Daten und Optionen vor. Das Beispiel sollte aber bewusst einfach gehalten werden.

    Wie lässt sich die Regalplatzoptimierung auf Google übertragen?

    Theory of ConstraintsDas Prinzip der Engpassoptimierung, auch Theory of Constraints genannt, ist eine in der BWL weit verbreitete, praxistaugliche und erfolgreiche Methode. Sie wird nicht nur für die Verkaufsflächennutzung im Einzelhandel angewendet, sondern praktisch in der gesamten BWL (Produktion, Marketing, Supply-Chain-Management, Finanzen, Controlling, Projektmanagement usw.).

    Die Abbildung des Trichtermodells rechts dient zur Illustration des Hauptsatzes der Theory-of-Constraints: „In jeder Wertschöpfungskette gibt es genau ein System, das die Leistungsfähigkeit des Ganzen bestimmt – ein eindeutiger Engpass“

    Es wäre wenig überraschend, wenn auch Google das Rad nicht komplett neu erfindet und bei der Auswahl der Suchtreffer dieses grundsätzliche Prinzip anwendet. Es gibt einige Punkte, die dafür sprechen. Bevor wir uns dazu tiefergehende Gedanken machen, müssen wir kurz einen etwas größeren Bogen spannen und ein paar Informationen über das Google Suche und das Ranking zusammentragen.

    Google kann nicht jeden Treffer für jede Suchanfrage einzeln bewerten

    John Wiley, Llead Designer Google Search, sagte 2013, dass etwa 15 Prozent der täglichen Suchanfragen neu sind und noch nie zuvor an Google gestellt wurden. Das entspricht etwa 500 Millionen Suchanfragen pro Tag. Google hat in diesen Fällen schlicht und einfach keine Daten aus der Vergangenheit darüber, welche Treffer von den Nutzern für die spezifische Suchanfrage als gut empfunden werden und dem Ziel der Nutzerzufriedenheit, der Searcher Satisfaktion, am besten dienen.

    Man kann nur erahnen, wie groß der Anteil Suchen ist, die zwar schon einmal durchgeführt wurden, aber so selten sind, dass Google über keinen ausreichend großen und aktuellen Datenpool für die Bewehrung einzelner Treffer verfügt. Ein Wert von 30–60 Prozent würde mich nicht überraschen.

    Google kann zwar anhand einer OnPage-Analyse bestimmen, ob ein Treffer für eine bestimmte Suchphrase grundsätzlich als relevant erscheint, aber nicht beurteilen, ob der Treffer tatsächlich die Nutzer zufriedenstellt. Unter diesen Bedingungen ist Google dazu gezwungen weitere Signale auszuwerten, die eine möglichst gute Vorhersage erlauben, welche Qualität ein Treffer besitzt.

    Links sind sehr wichtige Signale, haben aber ihre Grenzen

    Nach der Auswahl aller relevanten Dokumente für eine bestimmte Suchanfrage beruht das Grundprinzip von Google auf dem PageRank-Algorithmus. Dabei handelt es sich um ein Verfahren eine Menge verlinkter Dokumente anhand ihrer Verlinkungs-Struktur zu bewerten. Jeder SEO weiß, wie wichtig Links auch heute noch für das Google Ranking sind.

    Grundsätzlich funktioniert der PageRank-Algorithmus sehr gut und hat Google in kürzester Zeit zum Marktführer unter den Suchmaschinen werden lassen. Das Prinzip hat aber seine Grenzen.

    Für einzelne Seiten liegen wenig Signale vor

    Google kennt über 60 Billionen einzelne Seiten. Die deutliche Mehrzahl der Dokumente (URLs) im World Wide Web wird nicht von externen Websites verlinkt. Eine Domain wie ebay.de ist derzeit mir über 30 Mio. unterschiedlichen URLs im Google Index vertreten. Sicherlich besitzt nur ein relativ kleiner Bruchteil dieser URLs einen externen Link, zumal viele URLs nach Ablauf einer Auktion veraltet sind. Ähnliches trifft auf die meisten anderen Websites zu.

    Daher muss Google im großen Umfang ebenfalls die internen Verlinkung einer Domain berücksichtigen, um Linkdaten zu jeder bekannten URL zu erhalten. Die interne Verlinkung lässt sich jedoch komplett vom Seitenbetreiber steuern und ist damit nur bedingt vertrauenswürdig.

    Aber auch die externe Verlinkung wird seit Jahren durch bezahlte Links manipuliert und ist nur eingeschränkt vertrauenswürdig.

    Google bewertet die Qualität ganzer Domains

    Das Problem der mangelnden Daten zu jeder einzelnen URL kann Google abschwächen, indem die Qualität der dazugehörige Domain bewertet wird. Die Summe der Signale einer Domain inklusive aller URLs ergeben wesentlich mehr belastbare Daten zur Bewertung der Quelle.

    Google RankingFolgerichtig spricht Google auch von „Website– und Seitenqualität“, wenn sie die Funktionsweise des Rankings erklären.

    In SEO-Kreisen spricht man bei der Bewertung einer ganzen Domain durch Google auch von Domain Trust oder Domain Authority (Bewertung der Domain für ein bestimmtes Themengebiet wie z.B. „Gesundheit“ oder „Sport“).

    Das grundsätzlich gleiche Problem trifft auch auf unseren Supermarkt-Manager zu. Er kann unmöglich jede einzelne Zeitschrift und jede einzelne Ausgabe testen und bewerten, um sein Sortiment zusammenzustellen. Zudem ändert sich die Qualität einzelner Produkte von Ausgabe zu Ausgabe. Er ist darauf angewiesen die Komplexität zu verringern, indem er anstelle von einzelnen Ausgaben z.B. Produktgruppen wie Publikumszeitschriften und Fachzeitschriften zusammenfasst, bewertet und deren Leistungsdaten miteinander vergleicht. Es sind beliebig weitere Dimensionen wie z.B. Preisgruppen und Verlage/Anbieter/Marken denkbar.

    Google wertet zusätzlich das Nutzerverhalten aus

    Es dürfte inzwischen in SEO-Kreisen unbestritten sein, dass Google nicht nur die Verlinkung auswertet, sondern in einer weiteren Stufe auch das Nutzerverhalten. Anhand der Linkdaten lässt sich ein erstes Set von relevanten und möglichst vertrauenswürdigen Treffern für die Top 10 zusammenstellen.

    Deutlich bessere Suchergebnisse erhält Google, wenn auch die Interaktion der Nutzer mit den Suchergebnissen ausgewertet wird und zu einer Umsortierung der Suchergebnisse führen kann.

    Es wäre nicht logisch und zielführend einen Treffer dauerhaft auf Position 1 anzuzeigen, wenn ein Treffer auf den Positionen 2–10 von den Nutzern beständig häufiger ausgewählt wird. Ebenso wäre es unlogisch eine Treffer dauerhaft in den Top 10 zu behalten, wenn er kaum von den Nutzern ausgewählt wird. Bei aktuellen Ereignissen und sogenannten Hot Topics sind seit Jahren historisch gewachsene Verlinkungen erst Recht kein brauchbares Signal. Man spricht in solchen Fällen auch von einem Reranking, also einer Neureihung der Suchergebnisse. Google hat dazu eine ganze Reihe von Patentschriften eingereicht, in denen sich Details zu den Überlegungen von Google nachlesen lassen.

    Nutzersignale können Kriterien wie Content-Qualität, Website-Usability und Präferenzen (z.B. für Marken) berücksichtigen. Im Zweifel ist die „Abstimmung“ der Nutzer als wertvoller einzustufen, als als das pure Vertrauen in Linkdaten. Gleichwohl sind die Linkdaten wichtig, damit eine Seite überhaupt bei der „Abstimmung“ zur Auswahl steht.

    Welche Daten verwendet Google für die Auswertung des Nutzerverhaltens?

    Es ist nicht bekannt welche Nutzerverhaltensdaten im einzelnen für das Ranking bzw. Reranking ausgewertet werden, wie Google die Searcher Satisfaction exakt definiert und wie einzelne Treffer aufgrund des Nutzerverhaltens bewertet werden. Denkbar sind Metriken, wie beispielsweise CTR, Clickstream-Daten, Verweildauer und Return-To-SERP-Rate. Die CTR wäre bei allen diesen Metriken zumindest der Ausgangspunkt.

    Ebenfalls ist die Auswertung von Daten denkbar, die über den Chrome-Browser von Google gesammelt werden und praktisch für alle Domains zur Verfügung stehen. Weniger wahrscheinlich ist, dass Google Daten von Google Analytics auswertet. Zum einen wären die Analytics-Daten nur für Domains verfügbar, die auch tatsächlich Analytics verwenden. Laut den Daten von builtwith.com sind das nur 10 Prozent aller Websites, auch wenn bei den großen Websites der Anteil höher liegt.

    Zum anderen hätte Google ein Glaubwürdigkeitsproblem, da offiziell immer verlautbart wird, dass die Analytics-Daten nicht für das Ranking ausgewertet werden. Der Chrome-Browser besitzt laut den Daten von StatCounter mittlerweile eine weltweiten Marktanteil von über 40 Prozent (Deutschland 26 Prozent). Damit dürften Nutzungsdaten zu praktisch jeder Website vorliegen. Als Datenquelle wäre er damit gegenüber Analytics die wesentlich besserer Alternative.

    Entwicklung Marktanteile Web-Browser

    Entwicklung Marktanteile Web-Browser. Inzwischen ist der Google Chrome Browser mit einem weltweiten Marktanteil von rund 40 Prozent Marktführer.

    Zudem stehen Google selbstverständlich die Daten direkt aus der Google Suche zur Verfügung. In den Google Webmaster-Tools zeigt Google die CTR zu einzelnen Suchanfragen und URLs an. Diese Daten werden also garantiert gemessen und ausgewertet.

    Gehen wir für unser Beispiel vereinfacht davon aus, dass Google den „Zufriedenheitsbeitrag“ eines einzelnen Treffers anhand der CTR bewertet, auch wenn die Bewertung in der Realität sicherlich komplexer und ausgeklügelter verlaufen wird.

    Beispiel CTR-Daten in den Google Webmaster Tools

    Beispiel CTR-Daten in den Google Webmaster Tools

    Die CTR wäre bei der Google-Suche in unserem vereinfachten Beispiel damit das Äquivalent zum relativen Deckungsbeitrag aus dem Supermarktbeispiel. Die CTR berücksichtigt bereits die Engpassbeanspruchung. Der Wert für die Anzahl Klicks wird im Verhältnis zu den Impressions (Engpass) betrachtet.

    Grenzen der CTR-Daten

    Wie weiter oben bereits beschrieben, liegen bei einer Vielzahl von Seiten nur wenige seitenindividuelle Daten vor. Das trifft nicht nur auf Linkdaten zu. Selbstverständlich betrifft es auch die CTR-Daten.

    Man kann das sehr schön sehen, wenn man sich die CTR-Daten in den Google Webmaster Tools anschaut. Man kommt bei der Auflistung der Keywords und der einzelnen URLs relativ schnell an den Punkt, an dem Google in der Spalte „Klicks“ Werte unter 10 anzeigt.

    Bei dem weiter oben dargestellten Daten einer großen Domain mit über 34 Mio. SERP-Impressions und mehr als 2 Mio. Klicks pro Monat, die ich mir für diesen Beitrag angeschaut habe, lagen die Werte von Suchanfragen mit weniger als 10 Klicks pro Monat bei etwa 50 Prozent. Allerdings zeigt Google in der Auswertung auch nur die populärsten Suchanfragen an. In dem Fall wurden nur 6 Mio. von 34 Mio. SERP-Impressions angezeigt, also rund 18 Prozent. Bei den meisten Suchanfragen besitzt Google also keine aussagekräftigen Daten zu Treffern einer einzelnen Domain.

    Insgesamt wird unabhängig vom exakten Wert sehr deutlich, dass die CTR-Daten nur für relativ populäre Suchanfragen halbwegs aktuelle Daten zu einzelnen Treffern liefern können. Sie stoßen wie die Linkdaten bei einer Vielzahl von Suchanfragen schnell an ihre Grenzen.

    Wie bewertet Google die CTR-Daten der gesamten Domain?

    Es wäre logisch und sinnvoll, wenn Google die CTR-Daten der gesamten Domain berücksichtigt (bzw. die ausgeklügeltere, aber uns unbekannte Definition von „Searcher Satisfaction“). Diese Kennzahl könnte einen Bestandteil einer übergeordneten Metrik „Domain Trust“ bilden.

    Der dahinter liegende Gedanke ist sehr einfach. Wenn eine Domain insgesamt überdurchschnittlich viel Searcher Satisfaction erzeugt, kann die Searcher Satisfaction über alle Google-Suchen weiter gesteigert werden, wenn relevante Treffer der Domain bei noch mehr Suchen noch populärer angezeigt werden.

    Die Gründe, warum Nutzer die Treffer einer bestimmten Domain bei ähnlicher Relevanz gegenüber anderen Domains als zufriedenstellender empfinden, können mannigfaltig sein. Domainname, Markenpräferenzen, Ladezeiten, Content-Qualität, Sprachstil, Usability, (Un-)Aufdringlichkeit der Werbeeinbindungen, Qualität der Snippet-Optimierung und empfundene Vertrauenswürdigkeit sind hier nur einige Kriterien, die dabei in Frage kommen und von den Nutzern bewusst oder unbewusst durch ihr Verhalten bewertet werden.

    Folgt man dieser Überlegung, wäre es im Sinne der Engpassoptimierung folgerichtig einer Domain mit einer überdurchschnittlich guten CTR zukünftig mehr Sichtbarkeit (SERP-Impressions) in den SERPs einzuräumen. Umgekehrt würde man die SERP-Impressions einer Domain mit unterdurchschnittlichen CTR-Daten so lange reduzieren, bis sie durchschnittliche Werte erreicht.

    Diese Strategie wäre geeignet die Searcher Satisfaction insgesamt zu steigern, so wie der Supermarkt-Manager aus unserem Beispiel den Deckungsbeitrag seines Regals steigern kann, indem er den Anteil überdurchschnittlich wirtschaftlicher Produktgruppen erhöht.

    Die Sichtbarkeit von Domains entwickelt sich in Trends

    Die Sichtbarkeit einer Domain verläuft nicht generell linear, sondern ist ständigen Schwankungen mit Aufs und Abs unterworfen. Auf diese Weise bilden sich recht eindeutige Gipfel und Täler im Sichtbarkeitsindex. Die Richtung der Gipfel und Täler definiert einen Trend. Von einem Aufwärtstrend spricht man, wenn eine Serie sukzessiv höherer Gipfel und Täler zu beobachten ist. Umgekehrt liegt bei einer Serie von sukzessiv niedrigeren Gipfeln und Tälern ein Abwärtstrend vor. Eine Abfolge von gleich hohen Gipfeln und Tälern definiert hingegen einen seitwärts gerichteten Trend. Eine ausführliche Beschreibung der Trendanalyse erhält man in unserem kostenlosen Buch „SEO-Analysen“.

    Die folgende Grafik zeigt als Beispiel den Aufwärtstrend von apotheken-umschau.de und den Abwärtstrend von netdoktor.de über einen langen Zeitraum von mehreren Jahren.

    Beispiele Trends in der Entwicklung der Sichtbarkeit

    Während der eine Wettbewerber über eine sehr langen Zeitraum innerhalb des Trendkanals ständig Sichtbarkeit gewinnt, verliert der andere Wettbewerber zunehmend an Sichtbarkeit bei Google.

    Das vorgestellte Modell der „Regalplatzoptimierung“ wäre geeignet solche Trend zu erklären. Eine Domain mit überdurchschnittlich guten Werten für die Searcher Satisfaction erhält schrittweise immer mehr Sichtbarkeit. Sie darf den Engpass SERP-Impressions stärker auslasten. Dieses geschieht so lange, bis der Grenznutzen weiterer Impressions der Domain in den Suchergebnissen immer weiter abnimmt und die Domain insgesamt nur noch durchschnittliche Werte erreicht.

    Erzielt eine Domain unterdurchschnittliche Werte, wird ihr Sichtbarkeit entzogen. Sie darf den Engpass nur noch in einem geringeren Umfang beanspruchen.

    Zusätzlich bestimmen selbstverständlich weitere Faktoren wie Linkentwicklung, Contentaufbau, fortschreitende SEO-Optimierung, Umgestaltungen der Website, Google-Updates usw. die Entwicklung der Sichtbarkeit. Das Modell der „Regalplatzoptimierung“ würde aber sehr gut erklären, warum sich bei so vielen Domains die Sichtbarkeit oftmals über einen langen Zeitraum in vielen kleinen Schritten anstatt in wenigen Stufen in eine bestimmte Richtung entwickelt.

    Was bedeutet das für die Praxis?

    Um es ganz klar zu sagen, das Modell der „Ragalplatzoptimierung“ bei Google ist nur eine theoretische Überlegung und an keiner Stelle belegt. Es ist aber sehr hilfreich, wenn man ein funktionierendes Modell der Mechanismen des Google-Algorythmus im Hinterkopf hat, um einzelne Entwicklungen zu verstehen. Hält man das Modell für plausibel und folgt dem Gedanken, ergeben sich daraus insbesondere zwei Stellschrauben für die Praxis:

    1. Optimierung der Leistung: Alle erfolgreichen Maßnahmen zur Steigerung der Searcher Satisfaction einer bestimmten Domain steigern ihre Sichtbarkeit in Form von mehr und besseren Rankings.
    2. Optimierung der Engpassbeanspruchung: Indexierte Inhalte, die nur eine unterdurchschnittliche Performance bei der Searcher Satisfaction erzielen, schmälern die Gesamtperformance der Domain und reduzieren damit die zukünftige Sichtbarkeit der Domain in den Suchergebnissen von Google. Daher sollten Seiten mit einer schlechten Performance Google erst gar nicht angeboten werden (<meta name=”robots” content=”noindex”>). Der Engpass “Impressions” in den Suchergebnissen bei Google sollte möglichst nur von Seiten mit einer guten Performance beansprucht werden, um von Google zukünftig einen höheren Anteil der Engpassbeanspruchung zugewiesen zu bekommen.

    Während über die Optimierung der Leistung ständig geschrieben und geredet wird, bleibt die Optimierung der Engpassbeanspruchung oftmals unbeachtet. Konkret geht es darum, welche Inhalte man von Google indexieren lässt und welche nicht. Viele erfahrene SEOs berichten von ihren Beobachtungen, dass es sich sehr positiv auf die Rankings auswirkt, wenn man nur Seiten mit tatsächlich wertvollem und einzigartigem Content indexieren lässt und weniger wertvolle Seiten deindexiert. Auch diese Beobachtungen ließen sich mit dem Modell der „Ragalplatzoptimierung“ erklären.

    9 Tipps für die Optimierung der Engpassbeanspruchung in der Praxis

    Zum Schluss möchte ich noch 9 Tipps für die Optimierung der Engpassbeanspruchung „SERP-Impressions“ auf den Weg geben.

    1. Prüfe regelmäßig die CTR-Daten in den Google Webmastertools. Man sollte in Bezug auf die CTR die Stärken und Schwächen der Domain kennen.
    2. Sind die Stärken erst einmal bekannt, produziere mehr Inhaltsseiten von dieser Art.
    3. Überlege bei Suchanfragen und Seiten mit schlechten CTR-Werten, ob die Seite auf die richtige Suchphrase optimiert wurde. Eventuell beinhaltet eine Seite tollen Content, wird aber aufgrund falscher Signale einfach nur bei den falschen Suchanfragen angezeigt. Schau Dir die Treffer (Überschrift, Description, URL) und Inhalte der anderen Seiten an, die für das Keyword in den Top-10 stehen und überprüfe, ob sie die Suchanfrage eventuell besser beantworten. Versetze Dich in die Lage des Suchenden und versuche seine Bedürfnisse zu verstehen.
    4. Setze Seiten mit schlechten CTR-Daten und Inhalten ohne nennenswerten Mehrwert auf NoIndex, um die restlichen Seiten zu stärken.
    5. Noch besser ist es, wenn ganze Gruppen von Seiten identifiziert werden, die man bedenkenlos auf NoIndex setzen kann. Müssen bei einem Shop wirklich alle Seiten mit Sortier- und Filterergebnissen des Angebots in den Index? Bei zalando.de darf Google z.B. die Seite „Herren Business Schuhe“ indexieren und auch die gefilterten Ergebnisse „Schwarze Herren Business Schuhe“. Die Seiten mit den gefilterten Ergebnissen für „Schwarze Herren Business Schuhe aus Leder“ stehen jedoch auf NoIndex, da es sich um eine weniger explizit nachgefragte Eigenschaft handelt und die Trennschärfe zu den beiden anderen Seiten verloren geht. Macht es bei einem Branchenbuch Sinn alle 3.500 Branchenkategorien auch bei einem kleinen Ort indexieren zu lassen, bei dem es weniger Einwohner als Branchenkategorien gibt? Gehören Seiten mit veralteten Inhalten wie z.B. abgelaufenen Kleinanzeigen wirklich in den Index? Eine klare und sachlogische Trennlinie für die Indexierung ist sehr hilfreich,, um den Engpass nicht unnötig mit weniger wertvollen Inhalten zu beanspruchen.
    6. User-Generated-Content (UGC) ist günstig und daher eine tolle Sache, Qualität und Mehrwert sind jedoch meist sehr durchwachsen. Daher erhalten z.B. Foren und Frage-und-Antwort-Portale im Durchschnitt eher schlechte Nutzersignale. Hier sollte ein wirksames System eingeführt werden, um nur Seiten mit wertvollen Inhalten indexieren zu lassen. Die Auswahl kann redaktionell erfolgen oder automatisch z.B. durch ein Bewertungssystem, bei dem die Nutzer über die Qualität einzelner Inhalte abstimmen können.
    7. Wie immer Google auch die Searcher Satisfaction definiert, die CTR-Werte sind wahrscheinlich ein Teil davon. Die CTR lässt sich durch eine zielgerichtete Gestaltung der Treffer (Titel, Description, URL) steigern. Ein Treffer sollte Relevanz, Mehrwert und eine Handlungsaufforderung kommunizieren. Berücksichtige bei der Gestaltung der Meta-Description das AIDA-Prinzip
    8. Behalte die Anzahl indexierter Seiten im Auge und finde die Ursachen für stärkeren Veränderungen heraus, um eventuell gegensteuern zu können.
    9. Vermeide Duplicate Content.

    The post Regalplatzoptimierung bei Google appeared first on SISTRIX.

    SISTRIX

  • Tag Archives: Google

  • Google Page Layout Algorithmus Update aktiv

    Februar 11, 2014 1:07 pm - Posted by admin Category:SEO + SEM

    Google hat eine neue Version des Page Layout Algorithmus veröffentlicht. Dieser Filter, auch als Top Heavy Algorithmus bekannt, ist gegen Seiten gerichtet, die zuviel Werbung im sichtbaren Bereich der Website anzeigen (Ads Above The Fold).

    Laut Tweet von Matt Cutts ist der neue Algorithmus seit Donnerstag, den 6. Februar 2014, aktiv. Diese Änderung betrifft laut Google 1 Prozent der weltweiten Suchen.

    In einem Blogpost weist Google darauf hin, dass der Algorithmus automatisch beim Crawling Änderungen auf der Website erfasst. Reduziert der Websitebetreiber die Anzahl Ads im sichtbaren Bereich, wird der Algorithmus dieses beim nächsten Crawl der Seite wohlwollend berücksichtigen.

    Wir erwarten, dass eine erkennbare Auswirkung des neuen Updates mit dem fortschreitenden Crawling-Prozess von Google in den kommenden SISTRIX Daten für diese Woche auftaucht und werden wie gewohnt dafür einen Ereignis-Pin einpflegen.

    Insgesamt ist es die dritte Version des Page Layout Algorithmus:

    • Page Layout Algorithmus #1: 19. Januar 2012
    • Page Layout Algorithmus #2: 9. Oktober 2012
    • Page Layout Algorithmus #3: 6.Februar 2014

    The post Google Page Layout Algorithmus Update aktiv appeared first on SISTRIX.

    SISTRIX

  • Tag Archives: Google

  • Google nimmt deutsche Linknetzwerke ins Visier

    Februar 4, 2014 1:07 am - Posted by admin Category:SEO + SEM

    Misst man die Bedeutung eines Rankingfaktor am Aufwand, den Google betreibt, um weiterhin nutzbare Daten als Grundlage für den Algorithmus zu haben, so ist zumindest klar: Links sind weiterhin elementarer Bestandteil guter Rankings. Google hat in den letzten Jahren versucht, schlechte Links automatisiert von Guten zu unterscheiden. Mit dem Penguin-Update ist ihnen das auch teilweise geglückt – allerdings auch nur teilweise und lückenhaft.

    Nun greift Google in Europa zu einer anderen Strategie und will Linknetzwerke, die Links im großen Stil an verschiedenen Kunden verkaufen, direkt ins Visier nehmen. Ein erster Schritt ist in Frankreich zu beobachten: Buzzea, ein von Cutts in einem Tweet genannten französisches Linknetzwerk wurde von Google entwertet und hat als Reaktion die Türen einfach dichtgemacht. In eher befremdlichen Duktus kündigt Matt Cutts nun auch,dass auch Deutschland in den Fokus rückt: “Heute Frankreich, bald Deutschland.

    Natürlich brodelt seitdem in Deutschland die Gerüchteküche: welche Netzwerke wird es wohl treffen? Wann wird Google zur Tat schreiten? Wird Google, wie in Frankreich, nur ein Netzwerk aus dem Spiel nehmen oder direkt mehrere? Wie blank die Nerven liegen, zeigt sich an einer Newsmeldung der Internetworld von heute. Dort wurden ein paar Namen von großen Linknetzwerken genannt – nach kurzer Zeit war der Artikel überarbeitet und frei von Firmennennungen.

    Eines ist jetzt allerdings schon klar: Google wird mit der Aktion dem Markt dabei helfen, sich zu professionalisieren, die Qualität zu steigern und in das nächste Level des Cutts-und-Maus-Spiels (einen Kalauer musste ich einfach unterbringen) aufzusteigen. Die Nachfrage nach guten Links wird dadurch allerdings ansteigen – ein Pyrrhussieg für Google.

    The post Google nimmt deutsche Linknetzwerke ins Visier appeared first on SISTRIX.

    SISTRIX

  • Tag Archives: Google

  • Risiko Domainumzug und Rankings bei Google

    Januar 29, 2014 1:14 am - Posted by admin Category:SEO + SEM

    Eigentlich sollte der Umzug einer Domain auf eine neue Domain relativ schadlos für die Google-Rankings verlaufen, wenn man sich konsequent an die Anweisungen hält. In der Praxis gibt es aber Beispiele, die einen vermuten lassen, dass Domainumzüge ein bedeutsames SEO-Risiko beinhalten.

    theguardian.com verliert 50 Prozent Sichtbarkeit

    Am 30. Juli 2013 ist die Website der britischen Tageszeitung The Guardian von der Domain guardian.co.uk auf die Domain theguardian.com umgezogen. Infolgedessen fiel der Sichtbarkeitsindex von etwa 550 Punkte (guardian.co.uk) auf ein Niveau von rund 280 Punkte (theguardian.com) bei Google UK. Ein Verlust von fast 50 Prozent.

    Domainumzug The Guardion (Sichtbarkeit Google UK)

    Domainumzug The Guardion (Sichtbarkeit Google UK)

    Erst nach drei Monaten stieg die Sichtbarkeit Mitte November wieder auf das alte Niveau.

    home24.de verliert dauerhaft

    Wie die nächste Grafik zeigt, ging ebenfalls bei dem Umzug von moebel-profi.de auf home24.de viel Sichtbarkeit verloren. Auch bei diesem Beispiel fiel die Sichtbarkeit um fast.50 Prozent von 21,387 Punkte (moebel-profi.de; 30.01.2012) auf 11,053 Punkte (home24.de; 06.02.2012).

    Domainumzug Home24 (Google DE)

    Domainumzug Home24 (Google DE)

    Bei dem Möbelshop der Samwer-Brüder aus der Start-up-Schmiede Rocket Internet kann man ausreichend SEO-Know-how unterstellen, um gravierende SEO-Fehler beim Domainumzug auszuschließen. Im Gegensatz zu theguardian.com kann man bei diesem Beispiel keine Rückkehr auf das alte Niveau nach drei Monaten beobachten. Verantwortlich sind dafür wahrscheinlich Google-Updates in Zusammenhang mit einem sportlichen Linkaufbau der Domain.


    tz online verliert über 75 Prozent

    Ein sehr frisches Beispiel ist der Umzug der Tageszeitung tz München aus dem Hause Ippen von tz-muenchen.de auf tz.de. Auch dieser Umzug wurde von viel SEO-Know-how begleitet. Trotzdem lag der Sichtbarkeitsindex von tz.de in den vergangenen Wochen seit dem Umzug deutlich unter dem alten Niveau von tz-online.de.

    Domainumzug tz online (Google DE)

    Domainumzug tz online (Google DE)

    Aus SEO-Sicht erschwerend kam in diesem Fall auch noch ein Relaunch mit dem damit verbundene radikale Umstellung des gesamten Frontends hinzu. Es wurde mir auf Nachfrage versichert, dass beim tz-Umzug das Tool zur Adressänderung in den Webmaster-Tools genutzt wurde. Ebenfalls wurden umfangreiche 301-Weiterleitungen eingerichtet.

    Ich drücke dem Team beide Daumen, dass wie bei theguardian.com die alte Sichtbarkeit nach spätestens drei Monaten wieder zurück kommt. Die Domain habe ich auf meine Watchlist gesetzt und werde die Entwicklung gespannt verfolgen.

    Werden beim Domainumzug nicht alle Eigenschaften der alten Domain übertragen?

    Die Sichtbarkeitsverluste nach dem jeweiligen Domainumzug der drei genannten Beispiel lässt vermuten, dass Google eventuell nicht (sofort) alle Eigenschaften der alten Domain auf die neue Domain übertragen hat. Man kann hier an Eigenschaften wie Trust und/oder Nutzersignale denken. Aber auch an Eigenschaften wie PageRank und dem damit verbundenen Crawling- und Indexierungsbudget. Eventuell muss Google auch alle bestehenden Links erst neu crawlen, damit die Weiterleitung erkannt und die Links für die neue Domain gewertet werden.

    Der Sichtbarkeitsverlauf von tz.de ähnelt bisher der Entwicklung einer durchaus starken, aber ganz neuen Domain, bei der Google über noch keine ausführliche Daten-Historie verfügt. Zur Veranschaulichung zeigt die folgende Grafik die Entwicklung von tz.de mit der im September in Deutschland gestarteten Domain huffingtonpost.de.

    Vergleich tz.de mit huffingtonpost.de

    Vergleich tz.de mit huffingtonpost.de

    Sammelt Google erst Nutzerdaten, bevor der Domain mehr Sichtbarkeit in den SERPs eingeräumt wird, oder findet eine Trust-Berechnung inklusive Weiterleitung nur in längeren Update-Zyklen statt?

    Ist Google bei Domainumzügen vorsichtig, um sich vor Spam zu schützen?

    In der Vergangenheit war es eine beliebte SEO-Technik, eine abgestrafte Website durch einen Domainumzug wiederzubeleben. Ein Beispiel dafür ist der Umzug von misterinfo.de auf misterinfo.com. Für einen gewissen Zeitraum konnte so erfolgreich ein totes Pferd geritten werden.

    Domainumzug Misterinfo (Google DE)

    Domainumzug Misterinfo (Google DE)

    Es wäre verständlich, wenn Google die Qualität der Suchergebnisse schützen möchte und bei Domainumzügen vorsichtiger geworden ist, um den Erfolg solcher Techniken zu minimieren.

    Beispiel für erfolgreichen Domainumzug

    Es gibt selbstverständlich auch Fälle, bei denen die Sichtbarkeit komplett übergeben wurde. Als Beispiel kann man den Umzug von seokai.com auf search-one.de nennen.

    Domainumzug Search One (Google DE)

    Domainumzug Search One (Google DE)

    Hierbei handelt es sich allerdings um eine Domain, die insgesamt nicht über so viele Rankings und so viel Sichtbarkeit verfügt wie die Website einer großen Tageszeitung oder eines großen Online-Shops. Eventuell stößt man in dieser Größenordnung noch nicht an eine „Trustgrenze“ bei Google.

    Wie sind Eure Erfahrungen mit Domainumzügen? Kennt Ihr weitere Beispiele für gelungene und weniger gelungene Umzüge? Es würde mich freuen, wenn wir hier in den Kommentaren noch ein paar Beispiele sammeln und gegenseitig ein paar Tipps austauschen können.

    The post Risiko Domainumzug und Rankings bei Google appeared first on SISTRIX.

    SISTRIX