• E-commerce Solution

    Umsatz machen… … 24 Stunden am Tag, 365 Tage im Jahr. Die Anzahl der sogenannten Webshops oder eShops auf dem Marktplatz Internet steigt täglich an.

    Read More
  • Link Building

    Während bei der Onpage- oder Onsite-Optimierung einer Webseite vornehmlich die Struktur und der Inhalt optimiert werden, fokussiert man beim Linkaufbau in erster Linie das Umfeld der betreffenden Webseite. Beim Linkaufbau versucht man die Anzahl der auf die eigene Webseite verweisenden …

    Read More
  • Content Management

    Open Source Software aus Überzeugung Ein Tätigkeitsschwerpunkt von hauptsache.net ist die Entwicklung von Lösungen unter Verwendung von Open Source Software.

    Read More
  • Web Development

    Comming soon!

    Read More
  • SEO Consulting

    Wie „denken“ Suchmaschinen? Suchmaschinen arbeiten auf unterschiedliche Art und Weise. 

    Read More

    Tag Archives: Google

  • Google Panda Update und User-generated content

    August 19, 2014 1:08 pm - Posted by admin Category:SEO + SEM

    In den letzen Jahren waren Websites mit User-generated content wie Foren und Frage-und-Antwort-Portale häufig vom Google Panda Update betroffen. User-generated content besitzt nicht grundsätzlich eine schlechte Qualität. Aber ohne redaktionelle Pflege entsteht oft ein Wildwuchs, welcher die Qualität herunterzieht.

    Die Google Nutzer bevorzugen oft einen gut recherchierten und hochwertig geschriebenen Fachartikel anstelle von Community-Inhalten, bei denen gerne zehn Personen zwölf verschiedene Meinungen vertreten, so dass der Nutzer noch dem Lesen der Lektüre noch mehr verwirrt ist als vorher.

    Problematisch sind sicherlich auch Spam-Beiträge aus der Community und eine Vielzahl sehr ähnlicher Posts zu dem gleichen Thema, die sich sich inhaltlich überschneiden und gegenseitig kannibalisieren. Das sind nur einige Beispiele, warum User-generated content oftmals keine besonders hohe Qualität besitzt.

    Besonders tragisch ist die Situation, wenn eine Website qualitativ wertvollen Content z.B. in Form von Fachartikeln besitzt und gleichzeitig einen wild wuchernden Bereich mit User-generated content auf der Domain vorhanden ist. Es kommt vor, dass der Panda Algorithmus dann die gesamte Website herabstuft und auch die Seiten mit dem hochwertigen Content plötzlich Rankings verlieren.

    Einen solchen Fall hatten wir 2012 mit der Fallstudie zu netdoktor.de beschrieben (SEO-Analysen mit dem SISTRIX Sichtbarkeitsindex Seite 59 ff.). Als Lösung haben wir vorgeschlagen, dass netdoktor.de die Community-Inhalte deindexieren kann, oder sie auf eine zweite Domain auszulagert. Die zweite Domain könnte die Funktion einer „Bad Bank“ für schlechte Nutzersignale übernehmen (S. 72).

    Diese Lösungsmöglichkeiten hat jetzt auch John Mueller im Google Webmaster Hangout bestätigt. Ihr findet seine Antwort im Video ab Minute 11:36 bis Minute 16:05.

    John empfiehlt ein für die Website passendes System zu finden, um User-generated content mit geringem Mehrwert auszufiltern und auf NoIndex zu stellen. Sollte das aus irgendwelchen Gründen nicht möglich sein, sollte der User-generated content auf eine andere Domain ausgelagert werden, um die Website vor dem Panda Algorithmus zu schützen. Eine Auslagerung auf eine Sub-Domain ist nicht ausreichend, um einen sicheren Schutz zu ge­währ­leis­ten.

    The post Google Panda Update und User-generated content appeared first on SISTRIX.

    SISTRIX

  • Tag Archives: Google

  • Google straft ein weiteres deutsches und europäisches Linknetzwerk ab

    August 18, 2014 7:09 pm - Posted by admin Category:SEO + SEM

    Am Wochenende tauchten bei Facebook zahlreiche Beiträge auf, dass aktuell viele Websites Benachrichtigungen über die Google Webmaster Tools (GWT) wegen Linkkauf und Linkverkauf erhalten haben.

    Heute bestätigt Johannes Mehlem, Quality Rater bei Google, dass Maßnahmen gegen ein europäisches sowie ein deutsches Linknetzwerk eingeleitet wurden.

    Abstrafung Linknetzwerke

    Aufgrund der Menge an Beiträgen bei Facebook wäre es nicht überraschend, wenn es sich um große Linknetzwerke handelt.

    The post Google straft ein weiteres deutsches und europäisches Linknetzwerk ab appeared first on SISTRIX.

    SISTRIX

  • Tag Archives: Google

  • Auswirkung negativer Nutzersignale auf das Google Ranking

    August 13, 2014 1:44 pm - Posted by admin Category:SEO + SEM

    Die Startseite der Domain hotel-bonn.de bietet ein sehr schönes Beispiel dafür, welchen Einfluss Nutzersignale auf das Google-Ranking zu einem bestimmten Keyword haben können.

    Bei der Domain handelt es sich um eine uralte Exact-Match Domain für das Keyword “hotel bonn“. Die beiden Wörter “Hotel“ und “Bonn“ kommen auf der Startseite vor und sind ebenfalls in einigen externe Backlinks enthalten. Für Google gibt es also deutliche Rankingsignale die Website hotel-bonn.de für das Keyword “hotel bonn” relativ weit oben als Treffer anzuzeigen.

    Schauen wir uns den Rankingverlauf der Domain für das Keyword an, so sehen wir ein stetiges Auf und Ab.

    Rankingverlauf hotel-bonn.de zu dem Keyword "hotel bonn"

    In gewissen Abständen ist die Domain für wenige Wochen in den Top 10 zu finden und verschwindet dann wieder für einen längeren Zeitraum von der ersten Suchergebnisseite. Zeitweise schafft sie es bis auf Platz 2 für die attraktive und umkämpfte Suchphrase “hotel bonn“.

    Hotel BonnDas Problem ist, dass es bei der Website nicht um ein Hotel in der wunderschönen Bundesstadt Bonn geht, wie man eigentlich vermuten könnte. Vielmehr handelt es sich um die Seite eines Hotels in Baunatal am Stadtrand von Kassel. Es wird von einer Familie mit dem Nachnamen Bonn betrieben und heißt deshalb “Landgasthaus Hotel Bonn”.

    Der überwiegende Teil der Google-Nutzer dürfte bei der Suche nach „hotel bonn“ ein Hotel in der Stadt Bonn suchen (User Intent). Ein Hotel 2,5 Stunden Fahrzeit von Bonn entfernt am Stadtrand von Kassel ist für die meisten Nutzer daher kein besonders guter Treffer für ihre durchgeführte Suche.

    Treffer Hotel BonnViele Suchende werden erst gar nicht auf den Treffer klicken, weil sie im Snippet des Treffers bereits “Hotel und Landgasthaus am Stadtrand von Kassel“ gelesen haben. Ein weiterer Teil klickt ihn an, kehrt aber im Vergleich zu den anderen Treffern überdurchschnittlich oft zu Google zurück, um ein anderes Ergebnis auszuwählen (hohe Return-to-SERP-Rate).

    Als Ergebnis kann man dem Google Algorithmus bei der Arbeit zuschauen. Aufgrund der vorhandenen positiven Rankingsignale testet Google den Treffer von hotel-bonn.de alle paar Monate in den Top 10 zu dem Keyword “hotel bonn“. Bei den Nutzern fällt der Treffer jedoch durch, so dass Google in für einige Zeit aus den Top 10 wieder entfernt.

    Entsprechend volatil ist dann auch die Entwicklung des Sichtbarkeitsindex der Domain hotel-bonn.de

    Sichtbarkeisindex hotel-bonn.de

    Gerade weil das Beispiel so simpel ist, zeigt es sehr anschaulich, vor welchen Problemen Google und Websitebetreiber stehen, wenn Rankingsignale und User Intent nicht übereinstimmen. Stark schwankende Rankings können ein Signal sein, dass eine Website einfach die falschen Signale an Google sendet.

    The post Auswirkung negativer Nutzersignale auf das Google Ranking appeared first on SISTRIX.

    SISTRIX

  • Tag Archives: Google

  • Google ergänzt Webmaster Guidelines: Creating pages with little or no original content

    August 12, 2014 7:22 pm - Posted by admin Category:SEO + SEM

    Heute hat Google die englischsprachigen Webmaster Guidelines im Bereich Qualitätsrichtlinien um den Punkt “Creating pages with little or no original content“ ergänzt.

    Little or no original content

    In dem verlinkten Dokument wird beschrieben, dass Google gegen Domains vorgeht, welche viele Seiten ohne erkennbaren Mehrwert für die Nutzer erstellen.

    Als Beispiele werden genannt:

    • automatisch generierter Content
    • Doorway Pages
    • Content aus anderen Quellen wie Scraped Content oder Gastbeiträge mit geringer Qualität
    • Thin Affiliate Sites

    Dass Google gegen solche Seiten vorgeht, ist nicht neu. Jetzt werden in den Webmaster Guidelines aber mehrere explizite Beispiele zusammengefasst

    Zum großen Teil überschneiden sich die Beispiele mit den bereit existierenden Nennungen von “Automatically generated content“, “Doorway Pages”, “Scraped content” und “Participating in affiliate programs without adding sufficient value“.

    Wirklich neu scheint nur der Punkt “Gastbeiträge mit geringer Qualität” (low-quality guest blog posts) zu sein. Solche Beiträge werden gerne für den (nervigen und schlechten) Linkaufbau erstellt. Eventuell schafft Google mit der Ergänzung der Qualitätsrichtlinien jetzt eine Grundlage, um auch die einbindenden Domains zu bestrafen, welche diese Gastbeiträge veröffentlichen.

    In den deutschen Richtlinien für Webmaster ist der Punkt noch nicht enthalten, wird in den nächsten Tagen aber wahrscheinlich ergänzt.

    The post Google ergänzt Webmaster Guidelines: Creating pages with little or no original content appeared first on SISTRIX.

    SISTRIX

  • Tag Archives: Google

  • Warum Google Inhalte mit SSL-Zertifikat bevorzugt (oder auch nicht)

    August 8, 2014 7:17 am - Posted by admin Category:SEO + SEM

    Google hat heute bekannt gegeben, dass die Nutzung eines SSL-Zertifikates ein Ranking-Faktor ist. Inhalte, die über eine verschlüsselte Verbindung (HTTPS) ausgeliefert werden, erhalten durch den Google Algorithmus einen kleinen Bonus gegenüber ihren nicht-verschlüsselten Wettbewerbern.

    In der SEO-Branche wurde bereits lange vermutet, dass die Verschlüsselung ein positives Signal für Google darstellt. Ähnlich wie bei der Nutzung von CDN-Anbietern wird der Aufwand für Einrichtung und Pflege eines SSL-Zertifikates in der Regel nur von Webseitenbetreibern unternommen, die auch entsprechend in hochwertige Inhalte investieren. Diese Korrelation hat Google (jetzt) auch erkannt und nutzt sie für die Sortierung der Ergebnisse.

    Doch wieso hat Google das heute durch den Blogbeitrag öffentlich gemacht? Außer einem Konjunkturprogramm für SSL-Anbieter, bringt dieser Schritt nur Nachteile für die Suchergebnisqualität: die Korrelation zwischen der SSL-Nutzung und guten Inhalten wird in kurzer Zeit deutlich abnehmen und sich vielleicht sogar umkehren („Wieso sollen wir einen 3-Sterne-Text kaufen, wie haben doch das SSL-Zertifikat“). Die öffentliche Bekanntmachung eines konkret benannten, positiven Rankingfaktors ist ein sehr ungewöhnlicher Schritt von Google und in meiner Erinnerung einmalig.

    Google scheint damit also noch andere Interessen zu verfolgen. Wer die Pressemeldungen um Google und Sicherheitsthemen in den letzten Monaten verfolgt hat, wird bemerkt haben, dass Google durch die Veröffentlichung des NSA-Skandals auf dem falschen Fuss erwischt wurde. Spannungen zwischen der NSA und Google werden munter öffentlich ausgetragen und Google unternimmt einige Anstrengungen, um das simple Mitschneiden von Internet-Verkehr zu vermeiden. Vor einigen Tagen hat Google erst bekannt gegeben, nun auch internen (!) GMail-Traffic zu verschlüsseln, sehr gute Sicherheitsexperten kümmern sich um allgemeine Internet-Software und jetzt sorgt Google dafür, dass vermutlich bald ein sehr großer Teil des relevanten Internet-Verkehrs verschlüsselt abläuft.

    Da heute von der BBC über die Bild bis zu den Fachmedien vermutlich jeder über das Thema berichtet hat, dürften sich spätestens morgen alle Agenturen und Inhouse-SEOs mit der Umstellung auf SSL beschäftigen. Gute Gründe dagegen gibt es nun nicht mehr. Bleibt die Frage: gibt es dieses Ranking-Plus für SSL nun wirklich? Wen interessiert’s …

    The post Warum Google Inhalte mit SSL-Zertifikat bevorzugt (oder auch nicht) appeared first on SISTRIX.

    SISTRIX

  • Tag Archives: Google

  • Bewertet Google Links mit den Daten vom Chrome Browser?

    August 6, 2014 7:29 pm - Posted by admin Category:SEO + SEM

    Bewertung LinksAm 14. Februar 2012 wurde das Google Patent “Ranking documents based on user behavior and/or feature data” veröffentlicht.

    Vereinfacht ausgedrückt handelt die Patentschrift davon, dass Links anhand des Nutzerverhaltens bewertet und gewichtet werden. Ein Link, der häufig von Nutzern geklickt wird, erhält mehr Gewicht als ein Link, der selten geklickt wird.

    Das Patent stellt eine wichtige Weiterentwicklung des ursprünglichen PageRank-Algorithmus dar, der jeden Link auf einer Seite unabhängig vom tatsächlichen Klickverhalten noch gleich stark gewichtet hat. Aber wie kann man sich die Bewertung von Links aufgrund des Nutzerverhaltens konkret vorstellen und welche Daten kann Google dafür verwenden?

    Auswertung des Nutzerverhaltens zur Bekämpfung von Link-Spam

    Denkt man ein wenig über die Gewichtung von Links anhand des tatsächlichen Klickverhaltens nach, so ist das von Google eine sehr clevere Lösung, dem künstlichen Linkaufbau zur Manipulation der Suchergebnisse etwas entgegenzusetzen.

    Gekaufte Links und Spamlinks werden tendenziell eher auf einer Seite versteckt. Sie stehen im Footer, in speziellen Boxen am Seitenrand oder sind sogar komplett unsichtbar gemacht worden. Doch wenn die Nutzer die Links kaum sehen und die Links auch in vielen Fällen nicht themenrelevant sind, werden sie diese Links auch nicht klicken. Entsprechend gering werden die Links dann nach den Ideen des Patents gewichtet.

    Wenn gekaufte Links nicht versteckt werden, handelt es sich oft um künstliche Websites, die nur für den Linkverkauf erstellt wurden (z.B. Blogs auf Basis von Expired Domains). Wenn es dort keine echten Nutzer gibt, können diese auch keine verkauften Links klicken. Die dort verkauften Links sind dann praktisch wertlos.

    Wie kann Google das Nutzerverhalten zur Beurteilung von Links messen?

    Die große Frage ist, welche Daten Google für die Gewichtung von Links verwendet. Wie kann Google messen, welcher Link wie häufig von Nutzern einer Website geklickt wird? Im SEO-Bereich werden immer wieder zwei Google-Angebote als mögliche Daten-Quellen genannt. Zum einen Google Analytics und zum anderen der Google Chrome Browser.

    Persönlich glaube ich aus zwei Gründen nicht, dass Google zu diesem Zweck die Daten von Google Analytics verwendet. Zum einen betont Google immer wieder, dass sie für einen solchen Zweck keine Analytics-Daten verwenden. Sollte das nicht der Wahrheit entsprechen, käme es irgendwann heraus. Warum sollten Google hier ohne Not seine Glaubwürdigkeit aufs Spiel setzen?

    Der zweite Grund ist vielleicht noch wichtiger. Die Analytics-Daten sind nicht besonders gut geeignet, um das Klickverhalten von Links auf allen Domains zu messen. Nur ein gewisser Prozentsatz der Websites hat Google Analytics integriert. Laut builtwith.com nutzen aktuell 55,7 Prozent der Quantcast Top Million Websites Google Analytics. Zu diesen Websits hat Google alle Daten, zu den restlichen 44,3 Prozent jedoch überhaupt keine Daten. Das ist eine ungünstige Verteilung. Nimmt man die gesamte Stichprobe von builtwith.com mit aktuell über 289 Millionen Domains, dann haben sogar nur 9,2 Prozent Google Analytics integriert. Auf Basis von Analytics-Daten wäre das System mehr als nur halb blind. Durch den Verzicht auf Google Analytics könnte jede Website, die Links verkaufen möchte, das System ganz einfach austricksen und in den Stealth-Modus gehen.

    Google Chrome Browser

    Viel besser wären die Daten geeignet, die Google über den Chrome Browser gewinnen kann. Weltweit hat der Chrome Browser nach Zahlen von StatCounter bei Desktop-Computern inzwischen einen Marktanteil von rund 50 Prozent.

    Marktanteile Desktop-Browser weltweit

    Deutschland ist eines der wenigen Länder auf der Welt, in denen der Chrome Browser noch nicht zum Marktführer geworden ist. Aber auch hierzulande liegt der Desktop-Marktanteil schon bei 28 Prozent. Nur der Firefox-Browser wird in Deutschland häufiger genutzt.

    Nutzung Browser weltweit August 2014

    Mit dieser breiten Datenbasis könnte Google die tatsächliche Nutzung von praktisch jeder Website sehr präzise messen. Ebenso lassen sich die Besucherströme über Verlinkungen zwischen verschiedenen Websites ermitteln.

    Mir fällt keine Datenquelle ein, mit denen man Links anhand des Nutzerverhaltens besser bewerten könnte. Keine Website kann sich vor den Chrome-Nutzern verstecken.

    Aber übermittelt der Chrome Browser tatsächlich Daten an Google, welcher Link wie häufig geklickt wurde?

    Chrome versucht zu erraten, welcher Link wie oft geklickt wird

    Die Frage lässt sich sehr leicht beantworten. In den erweiterten Chrome-Einstellungen (Einstellungen > Erweiterte Einstellungen anzeigen) findet man im Bereich Datenschutz eine Funktion, die sich „Netzwerkaktionen voraussehen, um die Ladegeschwindigkeit zu verbessern“ nennt. Diese Funktion ist standardmäßig bei allen Nutzern aktiviert. Nur ein kleiner Prozentsatz dürfte sie deaktiviert haben.

    Google Chrome Funktion Netzweraktionen voraussehen

    Die erweiterte Einstellung “Netzwerkaktionen voraussehen, um die Ladegeschwindigkeit zu verbessern” ist standardmäßig im Google Chrome Browser aktiviert.

    Worum geht es bei dieser Funktion? Wenn ein Nutzer mit dem Chrome Browser eine URL aufruft, analysiert Google die Links auf der Seite und versucht zu erraten, welchen Link der Nutzer als nächstes anklicken wird. Die Zielseiten mit den höchsten Wahrscheinlichkeiten werden dann im Hintergrund bereits geladen. Klickt der Nutzer tatsächlich auf einen dieser Links, ist die Seite bereits vorab geladen. Auf diese Weise ermöglicht der Chrome Browser ein sehr schnelles Surf-Erlebnis.

    Google beschreibt die Funktion in der Chrome-Hilfe wie folgt:

    Über diese Funktion: Browser verwenden zum Laden einer Webseite die IP-Adresse. Wenn Sie eine Webseite besuchen, kann Chrome die IP-Adressen aller Links auf der Website suchen und Links, auf die Sie vermutlich als Nächstes klicken werden, bereits vorab abrufen. Mithilfe der Pre-Rendering- und Vorabruf-Technologie können Websites Links, die Sie möglicherweise als Nächstes aufrufen, schneller laden.

    Mit anderen Worten bedeutet die Vorabruf-Technologie aber auch, dass Google bei jedem Seitenaufruf über den Chrome-Browser einen Algorithmus trainiert, der die Klickwahrscheinlichkeit von Links bewertet. Und das mit einem weltweiten Marktanteil von 50 Prozent bei den Desktop-Browsern. Wir sprechen hier also nicht nur von irgendeiner Stichprobe, sondern von einer “halben Vollerhebung” über praktisch alle Domains. Wer braucht da noch Analytics-Daten, die für einen großen Prozentsatz der Domains fehlen, zur Bewertung von Links?

    Fazit

    Die Vorabruf-Technologie bei Chrome ist die perfekte Ergänzung und der ideale Datenlieferant für das Patent „Ranking documents based on user behavior and/or feature data“.

    Sollte Google nach diesem Verfahren Links bewerten, dann ist ein Link für die Suchmaschinenoptimierung um so wertvoller, je häufiger er von echten Besuchern auch tatsächlich geklickt wird. Das ist bei echten Empfehlungen in Form von echten Links entsprechend stärker der Fall als bei den meisten unnatürlichen und gekauften Links.

    Natürlich wissen wir nicht, ob Google das Patent in dieser Form auch tatsächlich anwendet und ob für die Umsetzung die Chrome-Daten herangezogen werden. Bei den deutlichen Fortschritten, die Google in den letzen Jahren bei der Bekämpfung von Spam-Links gemacht hat, ist diese Erklärung aber mein persönlicher Favorit.

    Was denkt Ihr über die Funktion „Netzwerkaktionen voraussehen, um die Ladegeschwindigkeit zu verbessern“? Gibt es Gründe, warum Google diese wertvollen Daten nicht auch für seinen Ranking-Algorithmus nutzen würde?

    The post Bewertet Google Links mit den Daten vom Chrome Browser? appeared first on SISTRIX.

    SISTRIX

  • Tag Archives: Google

  • Alle haben auf Google Panda 4.0 gewartet. Aber was dann passierte … wow!

    Juni 9, 2014 7:08 am - Posted by admin Category:SEO + SEM

    Heftig: seit Mittwoch hält Google die SEO-Branche ordentlich auf Trapp – die umfangreichsten Ranking-Veränderungen seit langer Zeit fanden konzentriert in den letzten Tagen statt. Im Gegensatz zu den letzten größeren Updates hat Google den Schwierigkeitsgrad erhöht. Wieso das so ist und welche ersten Rückschlüsse sich bereits ziehen lassen, möchte ich in diesem Blogposting erläutern.

    Drei Updates in wenigen Tagen
    Die Ranking-Verschiebungen der letzten Tage lassen sich in meinen Augen nicht auf eine einzelne Ursache zurückführen, sondern es hat mindestens drei, voneinander unabhängige Updates gegeben. Den breitesten Einfluss mit Effekten auf die meisten unterschiedlichen Domains hat dabei sicherlich die vierte Version des Panda-Algorithmus von Mittwoch. Wie schon zuvor versucht Google mit dem Panda-Update die Qualität von Inhalten in den SERPs zu verbessern. Galt die erste Version noch klassischen Content-Farmen wie Ehow.com, hat Google den Algorithmus kontinuierlich ausgeweitet und war deswegen in die Kritik geraten. Version 4.0 soll nun helfen, die Auswirkungen genauer und gradueller auszusteuern.

    Payday Loan 2.0, das zweite Update, wurde am letzten Wochenende in die freie Wildbahn entlassen. Ziel sind Keywords, die Ziel von Spam sind und bei denen es um nennenswerte Geldbeträge geht – daher auch der Name „Payday Loan“. Von diesem Update sind deutlich weniger Domains und Keywords betroffen. Auch geht es hauptsächlich um Märkte, die noch nicht so stark im Fokus von Google-Spamwächtern sind wie die USA oder auch Deutschland. Zusätzlich vermute ich, dass Google mit dieser Algorithmus-Anpassung insbesondere illegale SEO-Methoden wie Links von gehackten WordPress-Blogs bekämpft.

    si-ebay-bhp

    Die dritte Ursache ist kein Update im engeren Sinne, sondern scheint mir durch manuelle Eingriffe von Google erklärbar zu sein. Bei Ebay.de (und weiteren Länderdomains von Ebay) hat Google ein sehr starkes Verzeichnis nahezu vollständig aus dem Ranking herausgenommen. Eingriffe dieser Art habe ich bislang nur als Auswirkung von manuellen Aktionen gesehen – der Algorithmus ist vorsichtiger. Aber auch der Absturz sowie die Rückkehr von Bwin.com und thematisch ähnlichen Seiten scheint keine algorithmische Ursache zu haben.

    Das richtige Update identifizieren
    Verlieren die Domain oder große Teilbereiche wie Hostnamen/Verzeichnisse innerhalb eines Tages ihre Sichtbarkeit, so ist ein manuelle Eingriff die wahrscheinlichste Ursache. Hier spricht man dann allerdings von einer Penalty und nicht von einem Algorithmus-Update. Dieser Fall tritt in der Gesamtbetrachtung aller Rankingveränderungen selten auf und wird bei den wenigsten Fällen die Ursache sein.

    Die Unterscheidung zwischen Payday-Loan- und Panda-Update ist da schon etwas schwieriger: bei beiden Updaten handelt es sich um Algorithmus-Veränderungen, die eine Verbesserung der SERP-Qualität zum Ziel haben. Für eine zweifelsfreie Identifizierung sind tägliche Ranking- und Sichtbarkeitsdaten, wie wir sie im SISTRIX Optimizer anbieten, hilfreich: das Payday-Loan-Update lief während des Wochenendes, Panda wurde Mittwoch eingespielt.

    Aber auch ohne diese Daten gibt es wichtige Hinweise auf das betreffende Update. Dreht sich das Thema einer Seite um sehr lukrative und sehr umkämpfte „Money-Keywords“, für deren Optimierung nicht nur die Google-Richtlinien, sondern auch gesetzliche Grenzen überschritten werden? Dann sollte das Payday-Loan-Update näher in Betracht gezogen werden. In den allermeisten Fällen dieser Woche wird allerdings Panda 4.0 die Ursache für Rankingveränderungen sein. Daher beziehen sich die folgenden Beobachtungen auch auf Seiten, die von Panda 4.0 betroffen sind:

    Themenseiten sind in Bewegung
    Auffällig ist, dass viele Themenseiten der großen Zeitungen an Sichtbarkeit in Google verloren haben – zwar nicht massiv aber doch ging es für diese Seitentypen von spiegel.de, zeit.de, sueddeutsche.de und welt.de zeitgleich nach unten. Es gibt aber auch Ausnahmen: so hat der entsprechende Bereich von bild.de durch das Panda-Update nicht verloren.

    si-themenseiten

    Auch Downloadseiten reagieren auf Panda 4.0
    Ebenfalls gibt es sichtbare Veränderungen bei Downloadseiten. So geht es für den Platzhirsch Softonic.de mit einem Verzeichnis ein gutes Stück nach unten aber auch der Apple ITunes-Store muss Federn lassen. Auf der anderen Seite gewinnt das Download-Verzeichnis von computerbild.de dazu.

    si-downloadseiten

    Viele betroffene Domains haben Panda-Erfahrung
    Bei vielen Domains, die durch Panda gewonnen oder verloren haben, gab es in der Vergangenheit bereits Reaktionen auf Panda-Updates. Deutlich lässt sich das bei Geschenke.de beobachten – bei ersten internationalen Panda-Update hat die Domain massiv an Sichtbarkeit verloren und konnte jetzt, durch Panda 4.0 immerhin den deutlichen Abwärtstrend stoppen. So einen Verlauf sieht man bei zahlreichen Domains.

    si-geschenkede

    Redaktionelle Inhalte gehören zu den Gewinnern
    Häufig ist zu sehen, dass Verzeichnisse oder Domains mit umfangreichen redaktionellen Inhalten zu den Gewinnern des Updates gehören. Zwar sind die Ausschläge nach oben begrenzt aber doch messbar. Google scheint seinem Ziel, (gute) Inhalte zu erkennen und besser zu ranken also ein Stück näher zu kommen.

    toolbox-chip

    The post Alle haben auf Google Panda 4.0 gewartet. Aber was dann passierte … wow! appeared first on SISTRIX.

    SISTRIX

  • Tag Archives: Google

  • Kommentar zu “Macht Google jetzt das Internet kaputt?”

    Juni 8, 2014 1:09 pm - Posted by admin Category:SEO + SEM

    In der vergangenen Woche erschien auf welt.de ein Artikel mit dem Titel „Neue Suchalgorithmen – Macht Google jetzt das Internet kaputt?“. Grundsätzlich befürworte ich einen kritischen Umgang mit der stetig wachsenden Marktmacht von Google. Dieser Beitrag strotzte jedoch derart vor Fehlern, dass man ihn nicht umkommentiert lassen kann.

    Zitate:
    „Die Änderungen tragen putzige Namen wie Panda oder Pinguin, doch mit ihnen macht Google ernst im ständigen Kampf gegen Werbe-Spammer und Suchmaschinenoptimierer (SEO).“

    „Google kämpft einen ständigen Kampf gegen die SEO-Experten, setzt seit Jahren auf immer neue Kriterien, um den Spam aus den Suchergebnissen fernzuhalten.“

    In dem Artikel werden Begriffe wie Werbe-Spammer und SEO-Experten mehrfach gleichgesetzt und als Synonym verwendet. Das ist grundsätzlich falsch. Es bringt eine ganze Branche zu Unrecht in Verruf. Google kämpft keinen Kampf gegen SEOs. SEO-Experten helfen Websites barrierefrei für Google zu gestalten. SEO-Experten kümmern sich darum, dass die Website-Anbieter die Sprache der Suchmaschinen-Nutzer sprechen. Die Suchmaschine kann auf diese Weise die Inhalte besser verstehen und bessere Suchergebnisse liefern. Das ist eine klassische Win-Win-Situation.

    Ohne SEOs würde Bosch seine Waschmaschinen im Internet wahrscheinlich immer noch Waschvollautomaten nennen und nicht gefunden werden. Auch wüsste Google nicht, dass in Hamburg das “Kundenzentrum der Freien und Hansestadt Hamburg” für Melde- und Ausweisangelegenheiten zuständig ist und für Suchbegriffe wie „Meldeamt Hamburg“ sowie „Einwohnermeldeamt Hamburg“ ein guter Treffer ist.

    Folgerichtig kämpft Google nicht gegen SEO-Experten, sondern unterstützt sie bei deren Arbeit. Hier möchte ich exemplarisch nur drei Beispiele auflisten:

    1. Google Ratgeber „Einführung in die Suchmaschinenoptimierung
    2. Regelmäßige Google Hangouts mit John Mueller zur Beantwortung von SEO-Fragen durch Google
    3. Google Webmaster Tools

    Richtig ist, dass Google gegen Webspam kämpft. Und das ist gut so. Auch wenn ein (großer) Teil der Spammer SEO-Techniken einsetzen, sind im Umkehrschluss nicht alle SEOs Spammer.

    Der Artikel lässt aber nicht nur eine grundsätzliche Differenzierung zwischen SEO und Spam vermissen, es mangelt auch an Fachwissen.

    Zitat:
    „Panda sucht nach Link-Spam – und bestraft ihn durch Bedeutungsverlust der verlinkten Seiten in Googles Suchergebnissen.“

    Hier scheint der Autor Panda-Updates und Penguin-Updates ein wenig durcheinander zu bringen.

    Zitat:

    „Doch auch Giganten im Netz verlieren durch Panda 4 erheblich an Sichtbarkeit: Ebay hat laut Searchmetrics über Nacht 50 Prozent seiner Sichtbarkeit bei Google verloren, die Ratgeberseite Ask.com sogar 70 Prozent – ein Desaster für die Betreiber.“

    Bei Ebay ist hauptsächlich ein Verzeichnis mit Doorway Pages für die Verluste verantwortlich und hat praktisch seine komplette Sichtbarkeit verloren. Daher spricht vieles dafür, dass Ebay nicht vom Panda 4 Update betroffen ist, sondern zeitgleich eine manuelle Penalty für das Verzeichnis erhalten hat. Eine solche Maßnahme seitens Google wäre vertretbar, da die Seiten durchaus als Brückenseiten oder SERPs in SERPs interpretiert werden können und damit gegen die Google Richtlinien verstoßen würden. Wir haben das in einem Blogpost zum Panda 4.0 Update näher erörtert.

    Von diesem Spam-Versuch seitens Ebay lässt sich der Autor aber nicht seine schöne Geschichte „Ebay steht zumindest indirekt in Konkurrenz mit Googles Shopping-Seiten“ kaputt machen.

    Zitat:
    „Selbst die Seite des Norddeutschen Rundfunks verlor 20 Prozent ihres Google-Ranks – warum das so ist, das bleibt Pandas Geheimnis.“

    Auch hier wird Korrelation und Kausalität einfach gleichgesetzt und nicht weiter hinterfragt. Wenn die Website des Norddeutschen Rundfunks zeitgleich zum Panda 4.0 Update deutlich an Sichtbarkeit verliert, dann muss ja wohl das Panda Update dafür verantwortlich sein und der Beleg ist erbracht, wie ungerecht und voller Willkür dieses Update ist.

    In der Tat gehört ndr.de nicht zu den Websites, die Google mit einem Panda-Update aus den Suchergebnissen entfernen möchte. Aber anstatt reflexartig die Qualität des Updates zu hinterfragen, sollte man zuerst die Prämisse hinterfragen und sich die Mühe machen, nach anderen Ursachen zu recherchieren.

    Wenn eine solche Seite mit Qualitätsinhalten deutlich an Sichtbarkeit verliert, vermute ich den Fehler eher beim Websitebetreiber. Vielleicht hat er zu wenig auf SEO geachtet, weil der Branche immer wieder zu Unrecht so ein schlechter Ruf angedichtet wird. Meist passieren solche technischen Fehler dann, wenn es größere Änderungen auf der Website gegeben hat. Eine Recherche in Form einer Google Suche nach „Relaunch ndr.de 2014“ liefert dann auch in Sekundenschnelle die Erklärung für den Sichtbarkeitseinbruch von ndr.de. Seit dem 13.05.2014 ist der neue Webauftritt des NDR online. Ohne mir die Rankingverluste näher angeschaut zu haben, gehe ich davon aus, dass nicht ausreichend 301-Weiterleitungen von den alten URLs auf die neuen URLs gesetzt wurden. Manchmal können SEOs sehr hilfreich sein, auch für die Sichtbarkeit von Qualitätsinhalten in den Suchergebnissen und die Qualität des Webs.

    Ich möchte an dieser Stelle nicht Searchmetrics einen Vorwurf machen, dass ndr.de in deren Verliererliste aufgetaucht ist. Searchmetrics schreibt eindeutige Warnhinweise bezüglich der vorläufigen Analyse und möglicher Fehlinterpretationen direkt über seine Daten. Die Beachtung dieser Hinweise hätte aber wieder eine schöne Geschichte beschädigt. Wo würde die Story bleiben, wenn Google mit dem Panda Update nicht eindeutig Unschuldige wie den Norddeutschen Rundfunk getroffen hätte?

    Dieses Problem zieht sich leider durch den ganzen Welt-Artikel, ohne dass ich jetzt auf jeden Punkt eingehen möchte. Was der Autor Benedikt Fuest offenbar überhaupt nicht berücksichtigt, ist die Tatsache, dass es sich bei den Rankingveränderungen immer um ein Nullsummenspiel handelt. Was die eine Website verliert, müssen andere Websites gewinnen. Das Ziel von Google ist es, die Qualität der Suchergebnisse insgesamt zu verbessern. Es geht darum, schlechte Treffer durch bessere Treffer zu ersetzten. Davon profitieren zuerst die Nutzer und dadurch natürlich auch Google.

    Was Qualität in den Suchergebnissen bedeutet, bestimmen übrigens zu einem immer größeren Teil die Nutzer selbst und nicht ein bösartiger und geheimer Algorithmus, der das Internet kaputt macht. Gerade das Panda Update wurde auf Grundlage von Bewertungen der Nutzer gegenüber Websites entwickelt. Die Fragenliste zur Beurteilung der Qualität von Websites wurde von Google veröffentlicht.

    So bleibt am Ende die Frage, was will der Autor mit diesem Artikel Google eigentlich vorwerfen?

    Darf Google kein Spam bekämpfen? Darf Google keine Spam-Links entwerten? Darf Google nicht versuchen die Qualität der Suchergebnisse zu verbessern? Sollen alte Websites ein Gewohnheitsrecht auf gute Rankings erhalten und sich nicht mehr dem fortschreitenden Wettbewerbs stellen?

    Ich finde es gut, dass der Axel Springer Verlag eine öffentliche Diskussion um die Marktmacht von Google angestoßen hat. Solche Artikel wirken aber eher kontraproduktiv und sind kein gutes Argument für den Schutz des Qualitätsjournalismus.

    The post Kommentar zu “Macht Google jetzt das Internet kaputt?” appeared first on SISTRIX.

    SISTRIX

  • Tag Archives: Google

  • Google nennt bestraftes Linknetzwerk

    März 15, 2014 7:08 pm - Posted by admin Category:SEO + SEM

    Matt Cutts, Leiter des (Anti)-Webspam-Teams bei Google, hat gestern ein erstes deutsches Linknetzwerk genannt, gegen das Google vorgeht. Nach seiner ersten Ankündigung vor rund 6 Wochen hatte Cutts zwar bereits erklärt, gegen ein agenturinternes Netzwerk vorzugehen, allerdings keine Namen genannt. In dem Tweet von gestern wird neben der Berliner Firma „efamous“ ebenfalls das Vorgehen gegen eine weitere Agentur erwähnt.

    In welcher Form Google konkret gegen die genannten Linknetzwerke, die klar gegen die Google Quality-Richtlinien verstoßen, vorgeht, ist noch nicht bekannt. Die Branche ist seit der ersten Ankündigung angespannt. Gerüchteweise raten erste Linknetzwerkbetreiber ihren Mitarbeitern bereits, sich nach einem neuen Job umzusehen. Ein französisches Linknetzwerk hat nach der Erwähnung durch Google die Geschäfte gleich ganz eingestellt. Wieso Google die Betreiber von Linknetzwerken öffentlich nennt, Agenturen, die eigene Netzwerke für ihre Kunden aufgebaut haben allerdings von dieser Öffentlichkeit verschont, ist nicht bekannt und wirft ein seltsames Licht auf das Vorgehen von Google.

    So unangenehm diese Aktion von Google für die Branche aktuell auch ist und in den nächsten Monaten auch noch sein wird, so wichtig und richtig wird dieser Schritt mittelfristig auch aus SEO-Sicht sein. Der unnatürliche Aufbau von Links verstößt seit Gründung von Google gegen die Google-Richtlinien und ist trotzdem in zahlreichen Bereichen unabdingbare Bedingung für erfolgreiche Rankings. In den letzten Jahren hat sich er Handel mit Links deutlich professionalisiert und ist dadurch für Käufer und Verkäufer sehr einfach geworden. Dagegen geht Google nun vor und versucht die schlimmsten Auswüchse des Linkhandels (bei der Zwischenhändler gerne mehrstellige Prozentbeträge an Marge aufschlagen) einzudämmen. Die Aktion ist nicht das Ende des Linkkaufs, Google setzt das Spiel lediglich auf einem neuen Level fort.

    The post Google nennt bestraftes Linknetzwerk appeared first on SISTRIX.

    SISTRIX

  • Tag Archives: Google

  • Regalplatzoptimierung bei Google

    Februar 13, 2014 1:42 am - Posted by admin Category:SEO + SEM

    Welche zwei Dinge haben eine Suchergebnisseite von Google und ein Regal im Supermarkt gemeinsam?

    1. Sie dienen einem bestimmten Ziel.
    2. Sie verfügen nur über ein begrenztes Platzangebot (Engpass)

    Zeitschriftenregal

    Der Engpass begrenzt jeweils die Leistungsfähigkeit des ganzen Systems. Der Supermarkt könnte mit mehr Regalfläche mehr Geld verdienen, da er dann eine größere Auswahl von Produkten anbieten und so mehr Kaufbedürfnisse befriedigen könnte. Ebenso könnte Google mit mehr als 10 organischen Treffern auf der ersten Suchergebnisseite mehr Suchanfragen zufriedenstellend beantworten (Searcher Satisfaction).

    Sowohl Google als auch der Supermarkt stehen vor dem Problem das optimale Angebot für ein begrenztes Platzangebot auszuwählen. Während das übliche Vorgehen beim Supermarkt bekannt ist und zu den Grundaufgaben der Betriebswirtschaftslehre gehört, wird über das Vorgehen bei Google viel gerätselt. Es lohnt sich einen Blick auf die Auswahlentscheidung des Supermarktes zu werfen. Vielleicht lernen wir dabei auch eine ganze Menge über die Auswahl der Treffer bei Google.

    Anmerkung: Selbstverständlich verfolgt auch Google das Ziel der Gewinnmaximierung. Betrachtungsgegenstand in diesem Beitrag sind die kostenlosen, organischen Treffer auf den Suchergebnisseiten. Wir gehen in diesem Beitrag aber vereinfachend davon aus, dass die organischen Treffer bei Google das Ziel der Nutzerzufriedenheit und die AdWords-Anzeigen das Ziel der Gewinnmaximierung verfolgen. Die Wechselwirkungen zwischen organischen Treffern und AdWords-Anzeigen sind nicht Inhalt dieses Beitrags.

    Warum zeigt Google nicht einfach mehr als 10 Treffer an?

    Auf den ersten Blick wäre es für Google am einfachsten die Zufriedenheit der Nutzer mit den Suchergebnissen zu steigern, indem sie mehr als 10 organische Treffer auf einer Suchergebnisseite (SERP) anzeigen. Google hat zur dieser Idee seine Nutzer befragt und bekam von diesen tatsächlich die Antwort, dass sie sich mehr Ergebnisse wünschen. Mehr ist mehr.

    Laut der ehemaligen Vizepräsidentin Marissa Mayer führte Google daraufhin Tests mit 30 Treffern pro SERP durch. Der Umsatz und Traffic fiel bei diesem Experiment um 20 Prozent gegenüber der Variante mit 10 Treffern. Wie ist das zu erklären?

    Google benötigte 0,4 Sekunden um eine SERP mit 10 Treffern zusammenzustellen und auszuliefern. Die Seite mit 30 Treffern benötigte hingegen 0,9 Sekunden. Dieser Unterschied von 0,5 Sekunden zerstörte die Nutzerzufriedenheit und führte zu einem neuen Engpass, der 20 Prozent Traffic kostete. Daher beschränkt sich Google bis heute auf 10 organische Treffer.

    Grundsätzlich das gleiche Problem hat der Supermarkt. Er könnte theoretisch mehr Regale aufstellen. Aber eine solche Maßnahme würde die Gänge für die Kunden verengen und damit das gesamte Einkaufserlebnis stark beeinträchtigen. Somit ist auch das Angebot im Supermarkt durch ein bestimmtes Platzangebot limitiert.

    Rechenaufgabe: Optimiere das Regal im Supermarkt

    Nachdem der Engpass bekannt ist, schauen wir uns am besten ein einfaches Beispiel an. Nehmen wir an, in einem Supermarkt steht ein Regal mit Zeitungen und Zeitschriften. Das Regal verfügt über 10 Regalreihen, die mit Printprodukten gefüllt werden können. Dem Supermarkt-Manager stehen folgende Daten zur Verfügung.

    Daten für die Regalplatzoptimierung im Supermarkt

    Daten für die Regalplatzoptimierung im Supermarkt

    Anmerkung: Der geneigte Leser mag mir verzeigen, dass ich in diesem Beispiel den in der Betriebswirtschaft korrekten Begriff „Deckungsbeitrag“ und nicht den umgangssprachlichen Begriff „Gewinn“ verwende. Ich kann nicht anders. Zur Erklärung: Gewinn = Deckungsbeitrag – fixe Kosten (Gebäudemiete, Personalkosten usw.).

    Welche Änderungen sollte der Supermarkt-Manager bei bei der Zusammenstellung des Angebotes vornehmen, um zukünftig mehr Deckungsbeitrag mit dem Regal zur erwirtschaften? Sollte das Sortiment verändert werden? Kennst Du den richtigen Lösungsweg?

    Lösung Rechenbeispiel

    Die Lösung ist sehr einfach, wenn man einmal das Prinzip der Engpassoptimierung verinnerlicht hat. Das ganze System muss auf eine optimale Ausnutzung des Engpasses ausgerichtet werden, in diesem Fall auf die vorhandene Regalfläche.

    Lösung Regalplatzoptimierung

    Der Deckungsbeitrag pro Produktgruppe muss durch die Anzahl belegter Regalreihen geteilt werden, um den relativen Deckungsbeitrag pro Produktgruppe zu erhalten. Das Angebot von Produktgruppen mit einem relativen Deckungsbeitrag >200 € wird erweitert und das Angebot von Produktgruppen mit einem relativen Deckungsbeitrag <200 reduziert.

    Die entscheidende Kennzahl ist nicht der in Tabelle 1 angegebene Deckungsbeitrag pro Produktgruppe (Publikumszeitschriften, Fachzeitschriften usw.). Für eine Optimierung des Regals benötigen wir den Deckungsbeitrag pro Engpassbeanspruchung (relativer Deckungsbeitrag pro Regalreihe). Konkret fragen wir uns also nicht, wie viel Deckungsbeitrag die einzelnen Produktgruppen insgesamt erwirtschaften, sondern wie viel Deckungsbeitrag sie pro beanspruchten Regalfläche erwirtschaften. Dazu teilen wir den Deckungsbeitrag pro Produktgruppe einfach durch die Anzahl belegter Regalreihen und erhalten so den relativen Deckungsbeitrag. Wir alle kennen das Prinzip aus dem Online-Marketing, wenn wir mit Kennzahlen wie der Click-Through-Rate (CTR) arbeiten und ein Anzahl Klicks in ein Verhältnis zur Engpassbeanspruchung (Impression) setzen.

    Relativer Deckungsbeitrag pro ProduktgruppeIm Schnitt erzielen die 10 Regalreihen einen Deckungsbeitrag in Höhe von 200 € (2.000 € DB : 10 Regale). Die Fachzeitschriften erzielen pro Regalreihe nur 150 EUR. Sie sind damit die unwirtschaftlichste Produktgruppe. Insgesamt erzielen sie nach den Publikumszeitschriften mit 450 EUR zwar den zweithöchsten Deckungsbeitrag. Allerdings belegen sie auch 3 Regalreihen und damit 30 Prozent des Engpasses. Sie erwirtschafte aber nur 22,5 Prozent des Deckungsbeitrages. Ein Teil dieses Regalplatzes könnte daher besser genutzt werden.

    Die Comics erzielen insgesamt nur 300 EUR Deckungsbeitrag, aber sie belegen auch nur 1 Regalreihe. Sie sind mit einem relativen Deckungsbeitrag in Höhe von 300 EUR die wirtschaftlichste Produktgruppe.

    Die Optimierung kann jetzt ganz einfach erfolgen. Das Angebot an allen Produktgruppen, die einen unterdurchschnittlichen relativen Deckungsbeitrag erwirtschaften (< 200 EUR), sollte reduziert werden zugunsten von Produktgruppen, die einen überdurchschnittlichen (> 200) relativen Deckungsbeitrag erzielen.

    In unserem Beispiel sollte der Supermarkt-Manager also weniger Fachzeitschriften und weniger Zeitungen in das Regal stellen und den frei gewordenen Platz versuchsweise mit Comics und Publikumszeitschriften auffüllen. Eventuell lohnt es sich auch eine weitere Produktgruppe wie z.B. Taschenbücher anzubieten. Das langfristige Ziel ist den durchschnittlichen Deckungsbeitrag pro Regalreihe zu steigern.

    Es gibt keine exakte Lösung, da der Grenznutzen der Produktgruppen unbekannt ist. Der Manager weiß nicht, ob er das Comic-Angebot um 10, 50 oder 100 Prozent steigern soll. Bekannt ist nur die Richtung. Es bleibt ihm nichts anderes übrig als sich durch Tests iterativ an die optimale Lösung heranzutasten. Nach der Umstellung des Angebots beginnt ein neuer Kreislauf mit neuen Daten.

    In der Praxis sind diese Entscheidungsprozesse selbstverständlich komplexer, es liegen mehr Informationen, Daten und Optionen vor. Das Beispiel sollte aber bewusst einfach gehalten werden.

    Wie lässt sich die Regalplatzoptimierung auf Google übertragen?

    Theory of ConstraintsDas Prinzip der Engpassoptimierung, auch Theory of Constraints genannt, ist eine in der BWL weit verbreitete, praxistaugliche und erfolgreiche Methode. Sie wird nicht nur für die Verkaufsflächennutzung im Einzelhandel angewendet, sondern praktisch in der gesamten BWL (Produktion, Marketing, Supply-Chain-Management, Finanzen, Controlling, Projektmanagement usw.).

    Die Abbildung des Trichtermodells rechts dient zur Illustration des Hauptsatzes der Theory-of-Constraints: „In jeder Wertschöpfungskette gibt es genau ein System, das die Leistungsfähigkeit des Ganzen bestimmt – ein eindeutiger Engpass“

    Es wäre wenig überraschend, wenn auch Google das Rad nicht komplett neu erfindet und bei der Auswahl der Suchtreffer dieses grundsätzliche Prinzip anwendet. Es gibt einige Punkte, die dafür sprechen. Bevor wir uns dazu tiefergehende Gedanken machen, müssen wir kurz einen etwas größeren Bogen spannen und ein paar Informationen über das Google Suche und das Ranking zusammentragen.

    Google kann nicht jeden Treffer für jede Suchanfrage einzeln bewerten

    John Wiley, Llead Designer Google Search, sagte 2013, dass etwa 15 Prozent der täglichen Suchanfragen neu sind und noch nie zuvor an Google gestellt wurden. Das entspricht etwa 500 Millionen Suchanfragen pro Tag. Google hat in diesen Fällen schlicht und einfach keine Daten aus der Vergangenheit darüber, welche Treffer von den Nutzern für die spezifische Suchanfrage als gut empfunden werden und dem Ziel der Nutzerzufriedenheit, der Searcher Satisfaktion, am besten dienen.

    Man kann nur erahnen, wie groß der Anteil Suchen ist, die zwar schon einmal durchgeführt wurden, aber so selten sind, dass Google über keinen ausreichend großen und aktuellen Datenpool für die Bewehrung einzelner Treffer verfügt. Ein Wert von 30–60 Prozent würde mich nicht überraschen.

    Google kann zwar anhand einer OnPage-Analyse bestimmen, ob ein Treffer für eine bestimmte Suchphrase grundsätzlich als relevant erscheint, aber nicht beurteilen, ob der Treffer tatsächlich die Nutzer zufriedenstellt. Unter diesen Bedingungen ist Google dazu gezwungen weitere Signale auszuwerten, die eine möglichst gute Vorhersage erlauben, welche Qualität ein Treffer besitzt.

    Links sind sehr wichtige Signale, haben aber ihre Grenzen

    Nach der Auswahl aller relevanten Dokumente für eine bestimmte Suchanfrage beruht das Grundprinzip von Google auf dem PageRank-Algorithmus. Dabei handelt es sich um ein Verfahren eine Menge verlinkter Dokumente anhand ihrer Verlinkungs-Struktur zu bewerten. Jeder SEO weiß, wie wichtig Links auch heute noch für das Google Ranking sind.

    Grundsätzlich funktioniert der PageRank-Algorithmus sehr gut und hat Google in kürzester Zeit zum Marktführer unter den Suchmaschinen werden lassen. Das Prinzip hat aber seine Grenzen.

    Für einzelne Seiten liegen wenig Signale vor

    Google kennt über 60 Billionen einzelne Seiten. Die deutliche Mehrzahl der Dokumente (URLs) im World Wide Web wird nicht von externen Websites verlinkt. Eine Domain wie ebay.de ist derzeit mir über 30 Mio. unterschiedlichen URLs im Google Index vertreten. Sicherlich besitzt nur ein relativ kleiner Bruchteil dieser URLs einen externen Link, zumal viele URLs nach Ablauf einer Auktion veraltet sind. Ähnliches trifft auf die meisten anderen Websites zu.

    Daher muss Google im großen Umfang ebenfalls die internen Verlinkung einer Domain berücksichtigen, um Linkdaten zu jeder bekannten URL zu erhalten. Die interne Verlinkung lässt sich jedoch komplett vom Seitenbetreiber steuern und ist damit nur bedingt vertrauenswürdig.

    Aber auch die externe Verlinkung wird seit Jahren durch bezahlte Links manipuliert und ist nur eingeschränkt vertrauenswürdig.

    Google bewertet die Qualität ganzer Domains

    Das Problem der mangelnden Daten zu jeder einzelnen URL kann Google abschwächen, indem die Qualität der dazugehörige Domain bewertet wird. Die Summe der Signale einer Domain inklusive aller URLs ergeben wesentlich mehr belastbare Daten zur Bewertung der Quelle.

    Google RankingFolgerichtig spricht Google auch von „Website– und Seitenqualität“, wenn sie die Funktionsweise des Rankings erklären.

    In SEO-Kreisen spricht man bei der Bewertung einer ganzen Domain durch Google auch von Domain Trust oder Domain Authority (Bewertung der Domain für ein bestimmtes Themengebiet wie z.B. „Gesundheit“ oder „Sport“).

    Das grundsätzlich gleiche Problem trifft auch auf unseren Supermarkt-Manager zu. Er kann unmöglich jede einzelne Zeitschrift und jede einzelne Ausgabe testen und bewerten, um sein Sortiment zusammenzustellen. Zudem ändert sich die Qualität einzelner Produkte von Ausgabe zu Ausgabe. Er ist darauf angewiesen die Komplexität zu verringern, indem er anstelle von einzelnen Ausgaben z.B. Produktgruppen wie Publikumszeitschriften und Fachzeitschriften zusammenfasst, bewertet und deren Leistungsdaten miteinander vergleicht. Es sind beliebig weitere Dimensionen wie z.B. Preisgruppen und Verlage/Anbieter/Marken denkbar.

    Google wertet zusätzlich das Nutzerverhalten aus

    Es dürfte inzwischen in SEO-Kreisen unbestritten sein, dass Google nicht nur die Verlinkung auswertet, sondern in einer weiteren Stufe auch das Nutzerverhalten. Anhand der Linkdaten lässt sich ein erstes Set von relevanten und möglichst vertrauenswürdigen Treffern für die Top 10 zusammenstellen.

    Deutlich bessere Suchergebnisse erhält Google, wenn auch die Interaktion der Nutzer mit den Suchergebnissen ausgewertet wird und zu einer Umsortierung der Suchergebnisse führen kann.

    Es wäre nicht logisch und zielführend einen Treffer dauerhaft auf Position 1 anzuzeigen, wenn ein Treffer auf den Positionen 2–10 von den Nutzern beständig häufiger ausgewählt wird. Ebenso wäre es unlogisch eine Treffer dauerhaft in den Top 10 zu behalten, wenn er kaum von den Nutzern ausgewählt wird. Bei aktuellen Ereignissen und sogenannten Hot Topics sind seit Jahren historisch gewachsene Verlinkungen erst Recht kein brauchbares Signal. Man spricht in solchen Fällen auch von einem Reranking, also einer Neureihung der Suchergebnisse. Google hat dazu eine ganze Reihe von Patentschriften eingereicht, in denen sich Details zu den Überlegungen von Google nachlesen lassen.

    Nutzersignale können Kriterien wie Content-Qualität, Website-Usability und Präferenzen (z.B. für Marken) berücksichtigen. Im Zweifel ist die „Abstimmung“ der Nutzer als wertvoller einzustufen, als als das pure Vertrauen in Linkdaten. Gleichwohl sind die Linkdaten wichtig, damit eine Seite überhaupt bei der „Abstimmung“ zur Auswahl steht.

    Welche Daten verwendet Google für die Auswertung des Nutzerverhaltens?

    Es ist nicht bekannt welche Nutzerverhaltensdaten im einzelnen für das Ranking bzw. Reranking ausgewertet werden, wie Google die Searcher Satisfaction exakt definiert und wie einzelne Treffer aufgrund des Nutzerverhaltens bewertet werden. Denkbar sind Metriken, wie beispielsweise CTR, Clickstream-Daten, Verweildauer und Return-To-SERP-Rate. Die CTR wäre bei allen diesen Metriken zumindest der Ausgangspunkt.

    Ebenfalls ist die Auswertung von Daten denkbar, die über den Chrome-Browser von Google gesammelt werden und praktisch für alle Domains zur Verfügung stehen. Weniger wahrscheinlich ist, dass Google Daten von Google Analytics auswertet. Zum einen wären die Analytics-Daten nur für Domains verfügbar, die auch tatsächlich Analytics verwenden. Laut den Daten von builtwith.com sind das nur 10 Prozent aller Websites, auch wenn bei den großen Websites der Anteil höher liegt.

    Zum anderen hätte Google ein Glaubwürdigkeitsproblem, da offiziell immer verlautbart wird, dass die Analytics-Daten nicht für das Ranking ausgewertet werden. Der Chrome-Browser besitzt laut den Daten von StatCounter mittlerweile eine weltweiten Marktanteil von über 40 Prozent (Deutschland 26 Prozent). Damit dürften Nutzungsdaten zu praktisch jeder Website vorliegen. Als Datenquelle wäre er damit gegenüber Analytics die wesentlich besserer Alternative.

    Entwicklung Marktanteile Web-Browser

    Entwicklung Marktanteile Web-Browser. Inzwischen ist der Google Chrome Browser mit einem weltweiten Marktanteil von rund 40 Prozent Marktführer.

    Zudem stehen Google selbstverständlich die Daten direkt aus der Google Suche zur Verfügung. In den Google Webmaster-Tools zeigt Google die CTR zu einzelnen Suchanfragen und URLs an. Diese Daten werden also garantiert gemessen und ausgewertet.

    Gehen wir für unser Beispiel vereinfacht davon aus, dass Google den „Zufriedenheitsbeitrag“ eines einzelnen Treffers anhand der CTR bewertet, auch wenn die Bewertung in der Realität sicherlich komplexer und ausgeklügelter verlaufen wird.

    Beispiel CTR-Daten in den Google Webmaster Tools

    Beispiel CTR-Daten in den Google Webmaster Tools

    Die CTR wäre bei der Google-Suche in unserem vereinfachten Beispiel damit das Äquivalent zum relativen Deckungsbeitrag aus dem Supermarktbeispiel. Die CTR berücksichtigt bereits die Engpassbeanspruchung. Der Wert für die Anzahl Klicks wird im Verhältnis zu den Impressions (Engpass) betrachtet.

    Grenzen der CTR-Daten

    Wie weiter oben bereits beschrieben, liegen bei einer Vielzahl von Seiten nur wenige seitenindividuelle Daten vor. Das trifft nicht nur auf Linkdaten zu. Selbstverständlich betrifft es auch die CTR-Daten.

    Man kann das sehr schön sehen, wenn man sich die CTR-Daten in den Google Webmaster Tools anschaut. Man kommt bei der Auflistung der Keywords und der einzelnen URLs relativ schnell an den Punkt, an dem Google in der Spalte „Klicks“ Werte unter 10 anzeigt.

    Bei dem weiter oben dargestellten Daten einer großen Domain mit über 34 Mio. SERP-Impressions und mehr als 2 Mio. Klicks pro Monat, die ich mir für diesen Beitrag angeschaut habe, lagen die Werte von Suchanfragen mit weniger als 10 Klicks pro Monat bei etwa 50 Prozent. Allerdings zeigt Google in der Auswertung auch nur die populärsten Suchanfragen an. In dem Fall wurden nur 6 Mio. von 34 Mio. SERP-Impressions angezeigt, also rund 18 Prozent. Bei den meisten Suchanfragen besitzt Google also keine aussagekräftigen Daten zu Treffern einer einzelnen Domain.

    Insgesamt wird unabhängig vom exakten Wert sehr deutlich, dass die CTR-Daten nur für relativ populäre Suchanfragen halbwegs aktuelle Daten zu einzelnen Treffern liefern können. Sie stoßen wie die Linkdaten bei einer Vielzahl von Suchanfragen schnell an ihre Grenzen.

    Wie bewertet Google die CTR-Daten der gesamten Domain?

    Es wäre logisch und sinnvoll, wenn Google die CTR-Daten der gesamten Domain berücksichtigt (bzw. die ausgeklügeltere, aber uns unbekannte Definition von „Searcher Satisfaction“). Diese Kennzahl könnte einen Bestandteil einer übergeordneten Metrik „Domain Trust“ bilden.

    Der dahinter liegende Gedanke ist sehr einfach. Wenn eine Domain insgesamt überdurchschnittlich viel Searcher Satisfaction erzeugt, kann die Searcher Satisfaction über alle Google-Suchen weiter gesteigert werden, wenn relevante Treffer der Domain bei noch mehr Suchen noch populärer angezeigt werden.

    Die Gründe, warum Nutzer die Treffer einer bestimmten Domain bei ähnlicher Relevanz gegenüber anderen Domains als zufriedenstellender empfinden, können mannigfaltig sein. Domainname, Markenpräferenzen, Ladezeiten, Content-Qualität, Sprachstil, Usability, (Un-)Aufdringlichkeit der Werbeeinbindungen, Qualität der Snippet-Optimierung und empfundene Vertrauenswürdigkeit sind hier nur einige Kriterien, die dabei in Frage kommen und von den Nutzern bewusst oder unbewusst durch ihr Verhalten bewertet werden.

    Folgt man dieser Überlegung, wäre es im Sinne der Engpassoptimierung folgerichtig einer Domain mit einer überdurchschnittlich guten CTR zukünftig mehr Sichtbarkeit (SERP-Impressions) in den SERPs einzuräumen. Umgekehrt würde man die SERP-Impressions einer Domain mit unterdurchschnittlichen CTR-Daten so lange reduzieren, bis sie durchschnittliche Werte erreicht.

    Diese Strategie wäre geeignet die Searcher Satisfaction insgesamt zu steigern, so wie der Supermarkt-Manager aus unserem Beispiel den Deckungsbeitrag seines Regals steigern kann, indem er den Anteil überdurchschnittlich wirtschaftlicher Produktgruppen erhöht.

    Die Sichtbarkeit von Domains entwickelt sich in Trends

    Die Sichtbarkeit einer Domain verläuft nicht generell linear, sondern ist ständigen Schwankungen mit Aufs und Abs unterworfen. Auf diese Weise bilden sich recht eindeutige Gipfel und Täler im Sichtbarkeitsindex. Die Richtung der Gipfel und Täler definiert einen Trend. Von einem Aufwärtstrend spricht man, wenn eine Serie sukzessiv höherer Gipfel und Täler zu beobachten ist. Umgekehrt liegt bei einer Serie von sukzessiv niedrigeren Gipfeln und Tälern ein Abwärtstrend vor. Eine Abfolge von gleich hohen Gipfeln und Tälern definiert hingegen einen seitwärts gerichteten Trend. Eine ausführliche Beschreibung der Trendanalyse erhält man in unserem kostenlosen Buch „SEO-Analysen“.

    Die folgende Grafik zeigt als Beispiel den Aufwärtstrend von apotheken-umschau.de und den Abwärtstrend von netdoktor.de über einen langen Zeitraum von mehreren Jahren.

    Beispiele Trends in der Entwicklung der Sichtbarkeit

    Während der eine Wettbewerber über eine sehr langen Zeitraum innerhalb des Trendkanals ständig Sichtbarkeit gewinnt, verliert der andere Wettbewerber zunehmend an Sichtbarkeit bei Google.

    Das vorgestellte Modell der „Regalplatzoptimierung“ wäre geeignet solche Trend zu erklären. Eine Domain mit überdurchschnittlich guten Werten für die Searcher Satisfaction erhält schrittweise immer mehr Sichtbarkeit. Sie darf den Engpass SERP-Impressions stärker auslasten. Dieses geschieht so lange, bis der Grenznutzen weiterer Impressions der Domain in den Suchergebnissen immer weiter abnimmt und die Domain insgesamt nur noch durchschnittliche Werte erreicht.

    Erzielt eine Domain unterdurchschnittliche Werte, wird ihr Sichtbarkeit entzogen. Sie darf den Engpass nur noch in einem geringeren Umfang beanspruchen.

    Zusätzlich bestimmen selbstverständlich weitere Faktoren wie Linkentwicklung, Contentaufbau, fortschreitende SEO-Optimierung, Umgestaltungen der Website, Google-Updates usw. die Entwicklung der Sichtbarkeit. Das Modell der „Regalplatzoptimierung“ würde aber sehr gut erklären, warum sich bei so vielen Domains die Sichtbarkeit oftmals über einen langen Zeitraum in vielen kleinen Schritten anstatt in wenigen Stufen in eine bestimmte Richtung entwickelt.

    Was bedeutet das für die Praxis?

    Um es ganz klar zu sagen, das Modell der „Ragalplatzoptimierung“ bei Google ist nur eine theoretische Überlegung und an keiner Stelle belegt. Es ist aber sehr hilfreich, wenn man ein funktionierendes Modell der Mechanismen des Google-Algorythmus im Hinterkopf hat, um einzelne Entwicklungen zu verstehen. Hält man das Modell für plausibel und folgt dem Gedanken, ergeben sich daraus insbesondere zwei Stellschrauben für die Praxis:

    1. Optimierung der Leistung: Alle erfolgreichen Maßnahmen zur Steigerung der Searcher Satisfaction einer bestimmten Domain steigern ihre Sichtbarkeit in Form von mehr und besseren Rankings.
    2. Optimierung der Engpassbeanspruchung: Indexierte Inhalte, die nur eine unterdurchschnittliche Performance bei der Searcher Satisfaction erzielen, schmälern die Gesamtperformance der Domain und reduzieren damit die zukünftige Sichtbarkeit der Domain in den Suchergebnissen von Google. Daher sollten Seiten mit einer schlechten Performance Google erst gar nicht angeboten werden (<meta name=”robots” content=”noindex”>). Der Engpass “Impressions” in den Suchergebnissen bei Google sollte möglichst nur von Seiten mit einer guten Performance beansprucht werden, um von Google zukünftig einen höheren Anteil der Engpassbeanspruchung zugewiesen zu bekommen.

    Während über die Optimierung der Leistung ständig geschrieben und geredet wird, bleibt die Optimierung der Engpassbeanspruchung oftmals unbeachtet. Konkret geht es darum, welche Inhalte man von Google indexieren lässt und welche nicht. Viele erfahrene SEOs berichten von ihren Beobachtungen, dass es sich sehr positiv auf die Rankings auswirkt, wenn man nur Seiten mit tatsächlich wertvollem und einzigartigem Content indexieren lässt und weniger wertvolle Seiten deindexiert. Auch diese Beobachtungen ließen sich mit dem Modell der „Ragalplatzoptimierung“ erklären.

    9 Tipps für die Optimierung der Engpassbeanspruchung in der Praxis

    Zum Schluss möchte ich noch 9 Tipps für die Optimierung der Engpassbeanspruchung „SERP-Impressions“ auf den Weg geben.

    1. Prüfe regelmäßig die CTR-Daten in den Google Webmastertools. Man sollte in Bezug auf die CTR die Stärken und Schwächen der Domain kennen.
    2. Sind die Stärken erst einmal bekannt, produziere mehr Inhaltsseiten von dieser Art.
    3. Überlege bei Suchanfragen und Seiten mit schlechten CTR-Werten, ob die Seite auf die richtige Suchphrase optimiert wurde. Eventuell beinhaltet eine Seite tollen Content, wird aber aufgrund falscher Signale einfach nur bei den falschen Suchanfragen angezeigt. Schau Dir die Treffer (Überschrift, Description, URL) und Inhalte der anderen Seiten an, die für das Keyword in den Top-10 stehen und überprüfe, ob sie die Suchanfrage eventuell besser beantworten. Versetze Dich in die Lage des Suchenden und versuche seine Bedürfnisse zu verstehen.
    4. Setze Seiten mit schlechten CTR-Daten und Inhalten ohne nennenswerten Mehrwert auf NoIndex, um die restlichen Seiten zu stärken.
    5. Noch besser ist es, wenn ganze Gruppen von Seiten identifiziert werden, die man bedenkenlos auf NoIndex setzen kann. Müssen bei einem Shop wirklich alle Seiten mit Sortier- und Filterergebnissen des Angebots in den Index? Bei zalando.de darf Google z.B. die Seite „Herren Business Schuhe“ indexieren und auch die gefilterten Ergebnisse „Schwarze Herren Business Schuhe“. Die Seiten mit den gefilterten Ergebnissen für „Schwarze Herren Business Schuhe aus Leder“ stehen jedoch auf NoIndex, da es sich um eine weniger explizit nachgefragte Eigenschaft handelt und die Trennschärfe zu den beiden anderen Seiten verloren geht. Macht es bei einem Branchenbuch Sinn alle 3.500 Branchenkategorien auch bei einem kleinen Ort indexieren zu lassen, bei dem es weniger Einwohner als Branchenkategorien gibt? Gehören Seiten mit veralteten Inhalten wie z.B. abgelaufenen Kleinanzeigen wirklich in den Index? Eine klare und sachlogische Trennlinie für die Indexierung ist sehr hilfreich,, um den Engpass nicht unnötig mit weniger wertvollen Inhalten zu beanspruchen.
    6. User-Generated-Content (UGC) ist günstig und daher eine tolle Sache, Qualität und Mehrwert sind jedoch meist sehr durchwachsen. Daher erhalten z.B. Foren und Frage-und-Antwort-Portale im Durchschnitt eher schlechte Nutzersignale. Hier sollte ein wirksames System eingeführt werden, um nur Seiten mit wertvollen Inhalten indexieren zu lassen. Die Auswahl kann redaktionell erfolgen oder automatisch z.B. durch ein Bewertungssystem, bei dem die Nutzer über die Qualität einzelner Inhalte abstimmen können.
    7. Wie immer Google auch die Searcher Satisfaction definiert, die CTR-Werte sind wahrscheinlich ein Teil davon. Die CTR lässt sich durch eine zielgerichtete Gestaltung der Treffer (Titel, Description, URL) steigern. Ein Treffer sollte Relevanz, Mehrwert und eine Handlungsaufforderung kommunizieren. Berücksichtige bei der Gestaltung der Meta-Description das AIDA-Prinzip
    8. Behalte die Anzahl indexierter Seiten im Auge und finde die Ursachen für stärkeren Veränderungen heraus, um eventuell gegensteuern zu können.
    9. Vermeide Duplicate Content.

    The post Regalplatzoptimierung bei Google appeared first on SISTRIX.

    SISTRIX