• E-commerce Solution

    Umsatz machen… … 24 Stunden am Tag, 365 Tage im Jahr. Die Anzahl der sogenannten Webshops oder eShops auf dem Marktplatz Internet steigt täglich an.

    Read More
  • Link Building

    Während bei der Onpage- oder Onsite-Optimierung einer Webseite vornehmlich die Struktur und der Inhalt optimiert werden, fokussiert man beim Linkaufbau in erster Linie das Umfeld der betreffenden Webseite. Beim Linkaufbau versucht man die Anzahl der auf die eigene Webseite verweisenden …

    Read More
  • Content Management

    Open Source Software aus Überzeugung Ein Tätigkeitsschwerpunkt von hauptsache.net ist die Entwicklung von Lösungen unter Verwendung von Open Source Software.

    Read More
  • Web Development

    Comming soon!

    Read More
  • SEO Consulting

    Wie „denken“ Suchmaschinen? Suchmaschinen arbeiten auf unterschiedliche Art und Weise. 

    Read More

    Tag Archives: Google

  • IndexWatch 06/2016 und 07/2016 – Google Update?

    Juli 8, 2016 7:07 pm - Posted by admin Category:SEO + SEM

    In dieser Ausgabe des SISTRIX IndexWatch sind wir auf den Spuren eines vermeintlich neuen Google Update und haben dafür die Veränderungen auf dem deutschen Suchmarkt unter die Lupe genommen. Dabei hielten wir Ausschau nach interessanten Veränderungen bei den Gewinnern und Verlierern im SISTRIX Sichtbarkeitsindex und behandeln die beiden Monate Mai und Juni gemeinsam.

    Keywordrankings für Bing, Yahoo & Yandex im Optimizer

    Kurz notiert: Im SISTRIX Optimizer können ab sofort Keywordrankings für die Suchmaschinen Bing, Yahoo und Yandex ermittelt werden. Ebenso wie die Google-Positionen können die Rankings dieser Suchmaschinen wöchentlich oder täglich ermittelt werden. Auch stehen alle bekannten Sprach/Länderkombinationen zur Verfügung.

    Weiß Google welche Links von Nutzern geklickt werden?

    Links die nicht von echten Nutzern geklickt werden, haben keinen Wert. Diese Links werden als unnatürlich klassifiziert. Doch wie kann Google erkennen, welche Links tatsächlich geklickt werden?

    Bislang fehlte der eindeutige Beweis für die Theorie, dass der Google Chrome Browser das Surfverhalten seiner Nutzer an Google sendet. Laut Hanns Kronenberg liegt dieser Beweis jetzt vor.

    Dank LyricFind zeigt Google künftig Songtexte in den SERPs

    Man könnte auch titeln: Google nimmt den Lyric-Webseiten den Traffic weg! Egal wie man es dreht und sieht, durch einen mehrjährigen Lizenzvertrag zwischen Google und dem Unternehmen LyricFind werden seit dem 27. Juni 2016 Songtexte bei einer entsprechenden Google-Suche auf den Suchergebnisseiten prominent dargestellt.

    There’s a feeling you get when you turn to a song and you know that the words have two meanings. Well it’s whispered that now if you go search the tune, maybe Google will lead you to reason. Ooh, it makes you wonder… 

    Das Feature ist bereits auf dem US-Suchmarkt aktiv und soll nun sukzessive in allen weiteren Ländern ausgerollt werden. Das Unternehmen LyricFind ist nach eigenen Angaben der weltweit führende Anbieter von lizenzierten Songtexten von mehr als 4.000 Musikverlagen.

    Gewinner-Domains des Monats Mai 2016

    Kommen wir nun zu den Gewinnern im IndexWatch. Dies sind jene Domains, welche im Verlaufe des Monat Mai den größten Zuwachs im SISTRIX Sichtbarkeitsindex verzeichnen konnten.

    Gewinner-Domains Mai 2016
    # Domain Veränderung Daten
    1 fireball.de +93,63%
    2 bento.de +72,62%
    3 dkb.de +71,19%
    4 shpock.com +51,92%
    5 gartenxxl.de +51,81%
    6 langenscheidt.com +49,05%
    7 peek-cloppenburg.de +45,69%
    8 norddeich.de +44,22%
    9 fussball-em-2016.com +40,76%
    10 architonic.com +34,80%

    Fireball-SERPs in Google-SERPs

    Wer erinnert sich noch an FIREBALL? Eine Internet-Suchmaschine, die auf deutschsprachige Internetseiten spezialisiert war.

    Startseite von Fireball.de im Jahre 2001

    Offenbar hat man sich nun darauf „spezialisiert“ die eigenen Suchergebnisseiten bei Google zu platzieren. Die so entstandenen SERPs in SERPs, also die Indexierung von Suchergebnissen und zusammengescrapten Inhalten durch Google, ließ die Sichtbarkeit der Domain empor steigen.

    Sichtbarkeit der Domain fireball.de bei Google

    Einen Mehrwert kann den Rankings wahrlich nicht zugesprochen werden und es muss sich hierbei lediglich um einen temporären Fehler im Google-Kosmos handeln. Immerhin sind es jetzt schon zehn Wochen, da bin ich gespannt zu wann Google das Problem in den Griff bekommt.

    Online-Format von Spiegel Online unaufhaltsam im Aufwärtstrend

    Bento.de ist ein Online-Format von Spiegel Online und befindet sich seit Angebotsstart im Oktober 2015 in einem scheinbar unaufhaltsamen Aufwärtstrend im SISTRIX Sichtbarkeitsindex.

    Aufwärtstrend der Domain bento.de

    Eigenen Angaben zur Folge erklärt bento die News, zeigt das Beste aus dem Web und erzählt packende Stories, Nachrichten und Journalismus für alle, die im Internet zu Hause sind. Wikipedia weiß, dass mit dem Angebot die Zielgruppe der 18- bis 30-Jährigen erreicht werden soll, die Spiegel Online bisher nicht lesen. Bento soll sich finanziell selbst tragen können und setzt bei der Monetarisierung auf „Native Advertising“. Dies sind Werbeformen, die sich optisch nicht von den redaktionellen Beiträgen unterscheiden. Auf der Website sollen sich die Werbe-Beiträge aber deutlich abheben: Mit einem grünen Rahmen und einer deutlichen Markierung als „Sponsored Post“.

    Das kann Bank: Rankingproblem aufgrund Duplicate Content

    Die Website des in Berlin ansässigen Kreditinstitut, die Deutsche Kreditbank Aktiengesellschaft (DKB), hat zwar in der Sichtbarkeit gewonnen, läuft jedoch Gefahr einige Rankingprobleme zu bekommen.

    Aber der Reihe nach: Wie kam ich eigentlich auf diese blöde Headline? Nun ich habe mich einfach an der Markenkommunikation orientiert.

    SERP-Snippet zum Keyword DKB

    Unter Zuhilfenahme eines SERP-Snippet Generator lassen sich hier ganz bestimmt vorzeigbare Ergebnisse erzielen 😉

    Aber ich schweife ab. Zurück zum Thema! Woran sind etwaige Rankingprobleme zu erkennen? Oft genügt ein routinierter Blick auf die Ranking-Entwicklung interessanter Keywörter.

    Rankingverlauf bei DKB

    Als Anfang Mai diesen Jahres eine auffällig andere URL kurzzeitig bei Google rankte geriet die sonst so stabile Rankinghistorie ins Wanken. Wird hier die Ursache nicht behoben, so kann dies nachhaltig zu Problemen führen.

    • https://www.dkb.de/privatkunden/dkb_cash/gemeinschaftskonto/
    • https://www.dkb.de/privatkunden/dkb_cash/index.html?referer=21343_66p157s&affiliate=vsp&produkt_id=02

    Beide URLs sind für den GoogleBot indexierbar, was nicht gut ist. Der Inhalt ist allerdings nur nahezu identisch. Handelt es sich hierbei um eine Affiliate Landing- oder Trackingpage sollte der Seitenbetreiber diese auf NOINDEX setzten.

    Das Aussperren eines Crawlers mittels robot.txt-Datei ist im Übrigen kein Garant dafür, dass die Website oder einzelne URLs nicht in den Suchergebnissen auftaucht.

    Wie gewinnt ein Online-Flohmarkt seine Sichtbarkeit?

    Denke einfach an die Filmfigur „Mister Spock“ aus dem Star-Trek-Universum und sprich den Namen nun SCH-POCK aus. Schon sind wir bei der, nach eigenen Angaben, Flohmarkt App für schöne Dinge. Shpock steht dabei für „Shop in your pocket“

    Sichtbarkeit von shpock.com

    Man verpackt alle mehr oder minder zur einer Kategorie passenden Angebote zusammen und präsentiert sie optisch im Pinterest-Stile. Eigentlich befindet sich kein sichtbarer Text auf solchen Seiten. Auch Backlinks sind ein rares Gut. Sind hier überwiegend die Nutzsignale für das Ranking zu Keywörtern mit attraktiven Suchvolumen ausschlaggebend? Spielen gar die Dateinamen der Bilder sowie deren alt-Attribute, welche jeweils trefflich in verschiedensten Varianten benannten wurden, in diesem Zusammenhang eine Größere Rolle?

    Was haben QDF, Suchintention, Nutzer, Saisonalität und Google gemeinsam?

    Sie harmonieren ganz wunderbar miteinander. Google ist bestrebt, stehts das beste Ergebnis für einen Nutzer anzuzeigen. Dies kann natürlich nur gewährleistet werden, wenn die Suchintentionen sowie etwaige saisonale Umstände und Ereignisse berücksichtigt werden.

    Nils Römelings Website zu EM 2016

    Googles Ranking-Algorithmus QDF, Kurzform für „Query Deserve Freshness“, identifiziert, bei welchen Themen und deren Suchanfragen der User ein Bedürfnis nach aktuellen, zeitnahen Inhalten hat und positioniert diese bevorzugt auf der Suchergebnisseite.

    Nils Römeling bedient mit seinen Webangeboten fussball-em-2016.com sowie fussballnationalmannschaft.net diesen Algorithmus ganz gut und erwirtschaftet dank Google-Traffic Gewinne im sechsstelligen Bereich während großer Fußballturniere.

    Verlierer-Domains des Monats Mai 2016

    Widmen wir uns noch den Domains, welche im Verlauf des Monat Mai 2016 größere Verluste in der Sichtbarkeit hinnehmen musste.

    Verlierer-Domains Monat Mai 2016
    # Domain Veränderung Daten
    1 myvideo.de -86,69%
    2 renault.de -48,96%
    3 blackberry.com -43,41%
    4 klingel.de -38,86%
    5 neckermann-urlaubswelt.de -37,32%
    6 hawesko.de -35,37%
    7 otto-office.com -33,56%
    8 softonic.com -30,85%
    9 expedia.de -22,81%
    10 netzwelt.de -22,48%

    Aufgrund fehlender Nutzersignale Absturz im Google-Ranking?

    Wann hast Du Dir zuletzt einen lustigen oder informativen Clip auf myvideo.de angesehen? Genau, ich weiß es auch nicht. Es ist vermutlich schon eine kleine Ewigkeit her.

    Design von myvideo im zeitlichen Verlauf

    Heutzutage gibt es auf dem Portal nicht mehr wirklich einzigartige Inhalte. Ob Film, Serie oder Computerspiel, die Landingpage hat nur einen Trailer samt kurzer Titlebeschreibung. Mehr nicht. Ein Klick auf einen Anschauen- Kaufen oder Leihen-Button führt den nichtsahnenden Nutzer in den Shop der Online-Videothek von maxdome.

    Sichtbarkeit myvideo.de

    Ob nun das Video-Portal systematisch durch den Betreiber abgeschaltet wird oder die Rankings aufgrund schlechter (nicht mehr vorhandener?) Nutzersignale und den fehlenden einzigartigen Inhalten entfliehen könnte den deutlichen Abwärtstrend in der Sichtbarkeit erklären.

    Renault mit Website-Relaunch und neuen Corporate

    Der französische Autohersteller Renault präsentierte zu Beginn des Auto Salons in Genf sein neues Corporate Design. Zu Anfang Mai erfolgte dann die Überarbeitung der Website. Hintergrund für das Redesign ist, wie es seitens Renault heißt, die grundlegende Erneuerung der Fahrzeugpalette. Aber auch der Marken-Claim ändert sich. Aus „Drive The Change“ wurde „Passion For Life“.

    Sichtbarkeit Domain renault.de

    Der Zeitpunkt des Relaunch ist deutlich zu erkennen. Erfreulich, dass die Sichtbarkeit in den vergangenen vier Wochen deutlich anzieht. Dies ist ein gutes Signal, dass der Google-Crawler gut mit der neuen URL-Struktur zurechtkommt.

    Relaunch auf Verzeichnisebene bei Renault

    Auf Verzeichnisebene sind einige strukturelle Änderungen sofort ersichtlich.

    • Renault spielt nun alle Inhalte seiner Website über die verschlüsselte HTTPS-Verbindung aus
    • Der Verzeichnisname „Modellpalette“ wurde gekürzt und das zuvor vorangestellt „renault-“ verworfen

    Renault.de verlorene Rankings nach Relaunch

    Die verantwortlichen Kollegen stehen noch vor ein wenig Arbeit. Dies ist aber bei einer Umstrukturierung dieser Art völlig normal. Interessant in diesem Zusammenhang ist, dass die Brand (Marke) „Renault“ seitens Google nicht mehr eindeutig dem Vertipper „Reault“ zugeordnet wird.

    Download-Portal hält sich überraschend lange am Leben

    Hin und her, hoch und runter. Ein Wechsel der Top-Level-Domain, die Ausgliederung einer Sprachvariante auf einen Hostnamen und die Flucht vor bzw. aus dem Panda-Filter zeichnen die Geschichte der Domain softonic.com. Anhand des Sichtbarkeitsindex ist dies gut ablesbar.

    Sichtbarkeit softonic

    Für Softonic ging es nun ein gutes Stück nach unten. Nach der Umstellung schien Google etwas „Trust“ übertragen zu haben, doch nun wurde dem Ranking wieder ein deutlicher Riegel vorgeschoben. Genauer gesagt ist Softonic von einer manuellen Abstrafung durch Google betroffen. Den Grund dafür erfährst Du in unserer verlinkten Fallstudie.

    Hanseatisches Wein und Sekt Kontor strukturiert Online-Shop um

    Die Nummer Eins im Versand hochwertiger Weine, Champagner und Spirituosen möchte der seit 1996 betriebene Online-Shop hawesko.de sein. Seit dem 27.04.2016 ist die neue Website online.

    Sichtbarkeit hawesko.de

    Mit dem neuen Auftritt möchten wir unseren Kunden noch stärker in den Mittelpunkt stellen: Durch ansprechendes Design und eine perfekte Bedienbarkeit möchten wir ihm den Kauf so leicht und angenehm wie möglich machen.

    Betonte Hawesko-Geschäftsführer Nikolas von Haugwitz. Einige Inhaltsbereiche und Strukturen der Website wurden im Zuge des Relaunches umgestellt.

    http://www.chefkoch.de/rezepte/1189251224782335/Fladenbrot-mit-Tomaten-und-Feta-Kaese-gefuellt.html

    Das Verzeichnis Wein-ABC wurde abgeschafft und zumindest teilweise in den Bereich des Wein-Magazin überführt. Hier und da hat man richtigerweise die dafür notwendigen 301-Weiterleitungen geschaltet. Viele Inhalte sind bis jetzt allerdings noch nicht umgezogen. Der Nutzer, als auch GoogleBot, werden in diesem Falle mit einer schön gestalteten 404-Fehlerseite begrüßt.

    404-Fehlerseite bei Hawesko

    Auch sollten sich die verantwortlichen Kollegen einmal die vom CMS generierten Weiterleitungsketten anschauen. Hier und da mogelt sich all zu häufig eine temporäre 302-Weiterleitung unter. In der Regel kann dies nicht im Interesse des Seitenbetreibers sein und könnte kurzweilig, aber auch langfristig, zu Verwirrungen bei Goolge führen.

    301- 302- Weiterleitungskette bei Hawesko

    Die URL https://www.hawesko.de/wein-abc/merlot wurde mittels permanenter 301-Weiterleitung auf den umgezogenen Inhalt in das Wein-Magazin (https://www.hawesko.de/wein-magazin/weinwissen/rebsorten/2151.html) korrekt weitergeleitet. Dies ist aber für den GoobleBot noch nicht die Endstation. Mittels einer temporären 302-Weiterleitung wird nun von der verschlüsselten HTTPS-Verbindung zurück auf die ungesicherte HTTP-Verbindung zurückgeleitet. Wohl gemerkt nur „temporär“.

    In den Suchergebnissen von Google ranken die meisten URLs des Online-Shop ohne Trailing-Slash, also ohne einem „/“ am Ende eines Verzeichnisses.

    Hawesko SERP Trailing-Slash

    Das kann man zwar so machen, erschwert einer Maschine aber die eindeutige Zuordnung als /verzeichnis/. Über mod_ReWrite beispielsweise lassen sich beim Apache Webserver mühelos für alle „echten“ Verzeichnisse ein Trailing-Slash im Nachhinein anfügen.

    Hawesko Trailing-Slash mit 302-Weiterleitung

    Hierbei gilt es unbedingt zu beachten, dass eine permanente 301-Weiterleitung erstellt wird. Der aktuelle temporäre Verweis ist nicht optimal.

    Seitens Hawesko herrscht jedoch intern große Zufriedenheit über die neue Website, wie Andreas Isdepski, verantwortlich für Online und Mobile Marketing, bestätigt.

    Der Relaunch des Online-Shops ist sehr erfolgreich verlaufen, das Entwicklerteam hat großartige Arbeit geleistet. Vor allem die stabile Conversionrate ist beeindruckend. Ich bin gespannt auf die nächsten Wochen. Denn endgültig fertig sei der Shop noch nicht. Stück für Stück werden jetzt weitere mehrwertbietende Features nachgezogen.

    Google Update im Juni 2016 – Gewinner und Verlierer

    Einige Schräubchen am Google Algorithmus scheinen Ende Juni 2016 in die ein oder andere Richtung gedreht worden zu sein. Eine offizielle Meldung seitens Google liegt bis dato nicht vor. Bei größeren Algorithmus-Änderungen ging der Suchmaschinenanbieter aus dem kalifornischen Mountain View in der Vergangenheit recht transparent um. Zu den jüngsten Geschehnissen ist von offizieller Seite jedoch nichts bekannt.

    Trotz Allem sind die Auswirkungen des gegen Ende Juni 2016 ausgespielten Updates deutlich spürbar. Die Google-Änderung wurde europaweit gleichzeitig veröffentlicht und betrifft demnach alle Länder gleichermaßen. Es scheint sich eher um die Gewichtung von Nutzersignalen und strukturellen Aspekten einer Seite zu handeln, als um ein Content-Update wie beispielsweise das Panda Update eines war.

    Beispielhafte Gewinner-Domains des Google-Update im Juni 2016

    Ausgesuchte prozentuale Gewinner-Domains Juni 2016
    # Domain Veränderung Daten
    1 shop-apotheke.com +103,68%
    2 rossmann-fotowelt.de +60,74%
    3 eventinc.de +52,36%
    4 pcwelt.de +51,49%
    5 12gebrauchtwagen.de +42,77%
    6 caseking.de +38,64%
    7 skyscanner.de +35,12%
    8 fertighaus.de +33,84%
    9 langenscheidt.com +31,37%
    10 rossmann.de +26,85%

    Anhand der exemplarisch ausgewählten prozentualen Gewinner-Domains lassen sich deutliche Muster im Sichtbarkeitsindex der einzelnen Websites erkennen.

    Prozentuale Gogole-Update Juni 2016

    Ein eindeutiges Bild in den Sichtbarkeitsverläufen: Viele Domains gewannen schlagartig in der letzten Juniwoche kräftig an Sichtbarkeit.

    Sichtbarkeitsgewinn im Detail

    In unseren Daten schossen die positiv betroffenen Domains nach dem 27.06.2016 empor.

    Abwärtstrend durch Google Update gestoppt?

    Die Domain shop-apotheke.com befand sich in einem scheinbar unaufhaltsamen Abwärtstrend im SISTRIX Sichtbarkeitsindex. Durch die gegen Ende Juni in Kraft getretenen Algorithmus-Änderungen gelang der Website ein (vorzeitiger?) Ausbruch aus dem Trendverlauf.

    Abwärtstrend durch Google-Update gestoppt

    Vom Phantom-Update gebeutelt, jetzt aber ein Gewinner?

    Einige Domains wurden vom Phantom Update im Mai vergangenen Jahres negativ betroffen. Nicht selten zählen diese aber nun zu den Gewinnern im Juni 2016.

    Gewinn im Juni trotz Verlust durch Phantom-Update

    Gleiches Bild auch bei den Gewinner-Domains nach absoluten Zahlen

    Die oben angeführten Beispiele zeigen sich ebenfalls, schaut man sich die Sichtbarkeits-Gewinner nach absoluten Zahlen an. Beispielsweise hat der Online Auftritt der Zeitschrift LECKER nun sichtbar profitiert, wurde vor gut einem Jahr aber vom Phantom-Update nachhaltig negativ beeinflusst.

    Sichtbarkeitsgewinn nach absoluten Zahlen bei LECKER

    Die Ratgeber-Plattform zuhause.de konnte in absoluten Zahlen mehr als 11 Punkte im Sichtbarkeitsindex zulegen. Dabei gab es in der jüngsten Vergangenheit keine „Vorbelastung“ durch ein Google-Update.

    11 Punkte Gewinn in der Sichtbarkeit durch Google-Update

    Beispielhafte Verlierer-Domains des Google-Update im Juni 2016

    Ausgesuchte prozentuale Verlierer-Domains Juni 2016
    # Domain Veränderung Daten
    1 s-immobilien.de -71,55%
    2 medizinfuchs.de -32,38%
    3 maskworld.com -30,63%
    4 tecchannel.de -29,35%
    5 mybestbrands.de -26,67%
    6 schuhe.de -26,15%
    7 schlafwelt.de -22,05%
    8 billiger.de -18,97%
    9 heilpraxisnet.de -18,68%
    10 onmeda.de -16,81%

    Wie auch bei den Gewinnern folgen die Verlierer-Domains des vermeintlichen Google Update im Juni einem gemeinsamen Trend, welcher sich anhand des Sichtbarkeitsindex leicht ablesen lässt.

    Verlierer-Domain Google Update Juni 2016

    Stichtag in den Daten ist auch hier wider der 27.06.2016. Daraufhin sackte die Sichtbarkeit vieler Domains teils deutlich ab. Die Verluste lassen sich nicht gezielt auf einen Website-Typ oder gar Themenbereich festnageln. Online-Shops haben wie auch Informationsportale gleichermaßen einen Sichtbarkeitsverlust erlitten.

    Konträr zu den Gewinner-Domains haben Domains an Sichtbarkeit verloren, welche in der Vergangenheit einem Abwärtstrend unterlagen

    Trotz Abwärtstrend Verlust der Sichtbarkeit im Juni 2016

    oder einst vom Phantom Update negativ betroffen waren.

    Verlierer Phantom-Update und Verliere im Juni-Update 2016

    Das Immobilienportal der Sparkasse (s-immobilien.de) erlag im übrigen nicht dem Google Update. Hier fand lediglich ein ganz klassischer Domainumzug auf den Hostnamen immobilien.sparkasse.de statt.

    Domainumzug des Immobilienportals der Sparkasse

    Schwergewichte bei den Verlierer-Domains nach absoluten Zahlen

    Wirft man einen Blick auf die Verlierer-Domains im Juni 2016, so fallen viele Schwergewichte sofort ins Auge. Auch hier haben große Domains aus den unterschiedlichsten Bereichen schlagartig Sichtbarkeitspunkte verloren.

    Verlierer-Domains Juni 2016 nach absoluten Zahlen

    Jeweils dreißig Punkte Verlust im Sichtbarkeitsindex auf einen Schlag mussten alleine die Angebote Chip.de und Otto.de vergangenen Monat einstecken. Das Nachrichtenmagazin FOCUS Online hingegen verlor knackige 65 Punkte in der Sichtbarkeit über die vergangenen vier Wochen hinweg.

    Panda-Verlierer, Phantom-Verlierer und jetzt?

    Im Umkehrschluss gibt es aber auch Domains, welche extrem auf die vergangenen Qualität-Updates von Google reagiert hatten, jetzt aber unberührt blieben.

    Panda und Phantom Verlierer dr-gumpert.de


    Teile doch gerne Deine Beobachtungen, Erkenntnisse und Analysen dieses Google Update betreffend hier unten in den Kommentaren 🙂

    SISTRIX IndexWatch SEO-Analysen

    sistrix.de

  • Tag Archives: Google

  • Wie Google Links anhand der Nutzersignale aus dem Google Chrome Browser bewerten kann

    Juni 30, 2016 1:14 pm - Posted by admin Category:SEO + SEM

    Es verdichten sich die Beweise, dass Google anhand von Nutzersignalen unnatürliche Links sehr gut identifizieren und entwerten kann.

    Schon 2014 haben wir darüber geschrieben, dass Google die Möglichkeit besitzt, Links mit Hilfe der Daten vom Chrome Browser zu bewerten. Anhand der Nutzersignale wie oft ein Link tatsächlich von Nutzern geklickt wird, könnte Google den wahren Wert eines Links bestimmen.  Unnatürliche Links ließen sich ebenso enttarnen wie Links von Websites, die nur für den Linkverkauf erstellt wurden, aber mangels Mehrwert eigentlich überhaupt keine echten Besucher vorweisen können.

    Bislang fehlte für diese Theorie aber der eindeutige Beweis, dass der Google Chrome Browser das Surferhalten seiner Nutzer an Google sendet. Dieser Beweis liegt jetzt vor.

    Google My Activity (Meine Aktivitäten) zeigt den Browserverlauf an

    Google hat den neuen Dienst „My Activity“ eingeführt. Dort können Nutzer sehen, welche Daten Google bei der Nutzung von Google Produkten über sie gespeichert. hat.

    Bestandteil der Daten ist auch der Browserverlauf des Google Chrome Browsers. Somit erhält Google umfassende Daten, wie sich Nutzer durch das Web bewegen.

    Der folgende Screenshot zeigt z.B. an, dass ich heute um 10:01 Uhr den Chrome Browser benutzt habe. Ich habe in der Google-Suche eine Suchanfrage für „Elon Musk“ abgeschickt und über diesen Weg die Twitter-Seite von Elon Musk besucht. Dort habe ich einen Link auf einen Artikel bei bloomberg.com über Tesla und Solar City angeklickt. Am Ende des Beitrages habe ich einen Link auf einen weiteren Artikel bei Bloomberg geklickt. Auch das wurde bei „My Activity“ korrekt gespeichert.

    google-my-activity

    Über alle Nutzer kann Google so sehr genau berechnen wie häufig eine Seite aufgerufen wurde und welchen Links die Nutzer gefolgt sind.

    Warum sind diese Daten so wichtig und welche Bedeutung haben sie für den Linkauffbau und die interne Verlinkung? Die Antwort ist das Google Patent „Ranking documents based on user behavior and/or feature data (US 8117209 B1)“, das am 19. März 2010 eingetragen und am 14. Februar 2012 veröffentlicht wurde.

    Ein Link ist um so wichtiger, je häufiger er tatsächlich angeklickt wird

    In dem Dokument beschreibt Google eine Weiterentwicklung des PageRank-Modells. Ich versuche die etwas komplexe Mathematik dahinter möglichst einfach zu beschreiben, so dass es jeder verstehen kann. Dieser Abschnitt ist vielleicht etwas anstrengender zu lesen, aber es lohnt sich. Jeder SEO muss das Modell verstanden haben.

    Den PageRank-Wert kann man als Wahrscheinlichkeit verstehen, dass ein Surfer sich im Web gerade auf einer bestimmten Seite befindet. Je mehr Links zu der Seite führen und je wichtiger die Seiten sind, von denen aus verlinkt wird, um so größer ist die Wahrscheinlichkeit, dass sich ein Surfer auf dieser Seite befindet. Führen viele Links und Links von wichtigen Seiten auf eine bestimmte Zielseite, so hat sie einen hohen PageRank und damit einen hohen Rankingvorteil.

    Bei dem ursprünglichen Modell ging Google von einem zufälligen Surfer aus (Random Surfer Model). Vereinfacht ausgedrückt bewegt sich der Random Surfer durch das Netz, indem er zufällig einen der ausgehenden Links klickt. Die Klickwahrscheinlichkeit ist bei allen ausgehenden Links einer Seite gleich hoch, da der Random Surfer zufällig einen der angebotenen Links auswählt. Somit vererben nach dem Modell alle ausgehenden Links einer Seite den gleichen PageRank.

    Das Patent „Ranking documents based on user behavior and/or feature data“ beschreibt eine Weiterentwicklung dieses Modells. Es wird nicht mehr von einem Surfer ausgegangen, der zufällig einen Link auswählt, sondern ganz bewusst. Google nennt das Reasonable Surfer, was mit Rationaler Surfer übersetzt werden kann.

    Nach dem Reasonable Surfer Model sind Links um so wichtiger, je häufiger sie geklickt werden. Umgekehrt werden Links, die selten oder gar nicht geklickt werden, unwichtig und werden entsprechend gering gewichtet. In dem Patent beschreibt Google welche Links am häufigsten geklickt werden. Das sind z.B. Links direkt aus dem Hauptcontent der Seite, eher am Anfang des Contents, farblich hervorgehoben und unterstrichen. Diese werden deutlich häufiger geklickt als z.B. ein Link in kleinerer Schrift im Footer der Website. Je häufiger ein Link geklickt wird, um so stärker wird er gewichtet.

    Mit der Weiterentwicklung vom Random Surfer zum Reasonable Surfer wird die Prognose, mit welcher Wahrscheinlichkeit sich ein Surfer auf einer bestimmten Seite befindet, deutlich verbessert.

    Vor allem kann Google die neue Methode hervorragend im Kampf gegen unnatürliche Links einsetzen. Ein Link, der nicht geklickt wird, vererbt auch keinen PageRank und verursacht damit keinen Rankingvorteil.

    Unnatürliche Links werden kaum geklickt

    Wenn Links gezielt gesetzt wurden, nur um den PageRank der Zielseite zu beeinflussen, verstoßen sie geben die Richtlinien von Google. Wenn wir uns anschauen, welche Links Google als unnatürlich beschreibt, dann haben fast alle diese Links eine Gemeinsamkeit. Sie werden wahrscheinlich selten von echten Nutzern angeklickt. Das sind z.B. Links, die gar nicht sichtbar sind, Links im Footer eine Website, Links von Linktauschseiten, Seiten mit geringer Qualität, Artikel-Verzeichnissen, Presseportalen, Foren-Signaturen oder aus Gästebuch-Kommentaren. Sie werden selten geklickt, weil sie für die Nutzer uninteressant sind, nach Spam aussehen, und/oder weil die verlinkende Seite kaum echte Besucher besitzt.

    Google hat mir dem Reasonable Surfer Model eine sehr elegante Lösung gefunden, diese Links entwerten zu können. Wenn solche Links kaum geklickt werden, haben sie auch kaum einen Einfluss auf das Ranking.

    Google weiß wie häufig ein Link geklickt wird

    Diese Methode funktioniert um so besser, je genauer Google die tatsächliche Anzahl Klicks prognostizieren kann. Genau an dieser Stelle kommt der Google Chrome Browser in`s Spiel. Wie jetzt die Daten von My Activity zeigen, sendet der Chrome Browser den Browserverlauf an Google. Mit diesen Daten kann Google ein genaues Bewegungsprofil zwischen Websites erstellen und die Wichtigkeit von Links berechnen.

    Weltweit besitzt der Chrome Browser laut statcounter.com auf dem Desktop inzwischen einen Marktanteil von rund 57 Prozent. Mehr als die Hälfte der weltweiten Internetnutzung findet also über den Chrome Browser statt. Damit lassen sich sehr genaue statistische Aussagen über jede einzelne Website treffen. Diese Daten sind für Google deutlich wertvoller als Daten von Google Analytics. Jede Website, die nicht Analytics verwendet, wäre eine Black Box für Google. Chrome liefert umfangreiche Statistiken zu jeder Website.

    Die Nutzersignale in Form von tatsächlichen Klicks auf Links können langfristig wahrscheinlich auch schlecht durch Klickroboter gefälscht werden. Die Daten sind Nutzerprofilen zugeordnet und Google kann bewerten wie vertrauensvoll ein Nutzer ist. Bei My Activity werden auch Daten über den Standort angezeigt, über die Nutzung von Gmail, der Suche, verwendete Geräte, Google Now, Google Dokumenten und Tabellen, Aufruf von Seiten hinter einem Login usw. Anhand dieser Daten sollte sich ein Mensch von einem Roboter leicht unterscheiden lassen.

    Fazit

    Wir haben schon lange vermutet, dass Google mit dem Chrome Browser messen kann, wie häufig ein Link tatsächlich angeklickt wird und unnatürliche Links entsprechend abwertet. Mit den Daten von My Activity liegt nun der Beweis vor, dass der Chrome Browser die Nutzersignale tatsächlich an Google sendet. Jeder SEO sollte davon ausgehen, dass Links, die nicht geklickt werden, langfristig auch keinen Wert für das Ranking besitzen. Das gilt um so mehr, wenn man sich die Erfolge von Google beim Kampf gegen Linkspan in den letzten Jahren anschaut. Die Verwendung der Nutzersignale aus dem Google Chrome Browser sind eine sehr gute Erklärung dafür. 

    sistrix.de

  • Tag Archives: Google

  • Fallstudie: Softonic.com ist wahrscheinlich von einer manuellen Abstrafung seitens Google betroffen

    Juni 15, 2016 1:55 pm - Posted by admin Category:SEO + SEM

    Der Sichtbarkeitsverlauf für Softonic.com zeigt einen Rückgang von 40% in den USA, 33% im Vereinten Königreich, 42% in Deutschland, 61% in Italien, 53% in Frankreich, 31% in den Niederlanden, 43% in Brasilien, 45% in ihrem Heimatmarkt Spanien und vielen weiteren Ländern auch. Für den Rest diese Auswertung schauen wir uns nur den US Markt an, da das Problem für alle Länder gleich ist.

    Sichtbarkeisverlauf für Softonic.com in den Suchmärkten US, UK und DE

    Sichtbarkeisverlauf für Softonic.com in den Suchmärkten US, UK und DE

    Wenn wir uns die Sichtbarkeit für das stärkste Verzeichnis auf Softonic für den US Amerikanischen Suchmarkt anschauen, in diesem Fall /s/, sticht sofort ein massiver Sichtbarkeitsverlust ins Auge. Welchen Einfluss hatte dieses Verzeichnis eigentlich auf die komplette Domain? Das Verzeichnis hat noch vor zwei Wochen einen Löwenanteil von 40% der Sichtbarkeit der kompletten Domain ausgemacht (84 der 208 Punkte der Domain im Sichtbarkeitsindex). Heute macht dieses Verzeichnis nicht einmal 0.5% der Domain Sichtbarkeit aus.

    Sichtbarkeisverlauf der stärksten Verzeichnisse auf Softonic.com

    Sichtbarkeisverlauf der stärksten Verzeichnisse auf Softonic.com

    Was ist mit dem /s/ Verzeichnis geschehen?

    Zuerst müssen wir uns anschauen, welche Inhalte in diesem Verzeichnis zu finden waren. Wenn Ihr mögt, könnt Ihr euch die komplette Liste hier ansehen.

    Sichtbarkeisverlauf der stärksten Unterverzeichnisse auf Softonic.com/s/

    Sichtbarkeisverlauf der stärksten Unterverzeichnisse auf Softonic.com/s/

    Schauen wir uns die Rankings in den Wochen vor dem Absturz an, findet sich zum Beispiel die URL http://en.softonic.com/s/microsoft-office/ für die Suchanfrage „microsoft office“. Wenn wir diese URL im Browser öffnen, zeigt sich uns eine Ergebnisseite der internen Suche auf Softonic.

    Die URL http://en.softonic.com/s/microsoft-office/ zeigt das Ergebnis einer internen Suche auf Softonic für das Keywort "microsoft office"

    Die URL http://en.softonic.com/s/microsoft-office/ zeigt das Ergebnis einer internen Suche auf Softonic für das Keywort „microsoft office“

    Wenn wir uns auch die restlichen Ergebnisse aus obiger Liste anschauen wird schnell klar, dass alle Ergebnisse im Verzeichnis /s/ aus internen Suchseiten bestehen. Also „SERPs in SERPs“.

    Fazit

    Hiermit sehen wir uns einem Problem gegenübergestellt, mit dem Google sich schon seit Ewigkeiten herumschlägt: Suchergebnisse innerhalb der Suchergebnisse. Schon 2007 hat Matt Cutts es für nötig empfunden dieser Thematik einem eigenen Artikel zu widmen (Engl.). Googles Richtlinien für Webmaster beschäftigen sich damit im Unterpunkt „Brückenseiten„: Im Wesentlichen ähnliche Seiten, die eher Suchergebnissen ähneln als einer klar definierten, durchsuchbaren Hierarchie.

    Viele Webseitenbetreiber nutzen gerne die umfangreichen Möglichkeiten die Kategorienseiten für gute Rankings bei wichtigen Keywords bieten. Hierbei handelt es sich um eine Strategie mit vielen Gesichtern. Einige gut funktionierende Beispiele sind: die spanische Zeitung Elpais.com, die deutsche Zeitung Sueddeutsche, Theguardian.com und Quora.com (wo auch die HTML Sitemap als Kategorienseite genutzt wird).

    Kategorienseiten zu nutzen kann sich als großartige Idee herausstellen und den Rankings einer Seite maßgeblich zugute kommen. Es ist jedoch wichtig aufzupassen wie genau man diese Strategie umsetzt, da Google es schon seit Jahren klarstellt, dass Suchergebnisseiten im Google-Index nicht erwünscht sind.

    Da Themenseiten intern häufig so aufgebaut sind, dass sie im Kern eine interne Suche über die eigenen Artikel zu einem Stichwort sind, besteht die Gefahr bei Google in Missgunst zu fallen.

    Damit dies nicht geschieht, sollte in die Erstellung und Ausgestaltung dieser Seiten ruhig der ein oder andere Manntag mehr investiert werden, als unbedingt nötig. Auch dann werden es noch die Seiten der Domain sein, die mit dem wenigsten Aufwand die meisten Besucher bringen.

    Schlussendlich noch ein Satz: Grundsätzlich es ist eine Gratwanderung was Google als eine Kategorienseite akzeptiert und wann Google diese als Suchergebnis zählt. Klare Richtlinien hat Google nicht. Das Verzeiches jedoch /s/, für Search, zu nennen, lässt nicht viel Raum für Interpretationen.


    Update 08.06.2016:
    Jennifer Woodard, Softonics Pressesprecherin, hat gestern, nach der Veröffentlichung der spanischen Version dieses Blogposts, auf Twitter eine manuelle Maßnahme wegen „Thin Content“ auf deren Suchseiten bestätigt und mitgeteilt, dass schon an einer Lösung gearbeitet wird.

    Wir wünschen dem Softonic Team viel Erfolg!

    sistrix.de

  • Tag Archives: Google

  • Fallstudie: Softonic.com ist wahrscheinlich von einer manuellen Abstrafung seitens Google betroffen

    Juni 14, 2016 7:19 pm - Posted by admin Category:SEO + SEM

    Der Sichtbarkeitsverlauf für Softonic.com zeigt einen Rückgang von 40% in den USA, 33% im Vereinten Königreich, 42% in Deutschland, 61% in Italien, 53% in Frankreich, 31% in den Niederlanden, 43% in Brasilien, 45% in ihrem Heimatmarkt Spanien und vielen weiteren Ländern auch. Für den Rest diese Auswertung schauen wir uns nur den US Markt an, da das Problem für alle Länder gleich ist.

    Sichtbarkeisverlauf für Softonic.com in den Suchmärkten US, UK und DE

    Sichtbarkeisverlauf für Softonic.com in den Suchmärkten US, UK und DE

    Wenn wir uns die Sichtbarkeit für das stärkste Verzeichnis auf Softonic für den US Amerikanischen Suchmarkt anschauen, in diesem Fall /s/, sticht sofort ein massiver Sichtbarkeitsverlust ins Auge. Welchen Einfluss hatte dieses Verzeichnis eigentlich auf die komplette Domain? Das Verzeichnis hat noch vor zwei Wochen einen Löwenanteil von 40% der Sichtbarkeit der kompletten Domain ausgemacht (84 der 208 Punkte der Domain im Sichtbarkeitsindex). Heute macht dieses Verzeichnis nicht einmal 0.5% der Domain Sichtbarkeit aus.

    Sichtbarkeisverlauf der stärksten Verzeichnisse auf Softonic.com

    Sichtbarkeisverlauf der stärksten Verzeichnisse auf Softonic.com

    Was ist mit dem /s/ Verzeichnis geschehen?

    Zuerst müssen wir uns anschauen, welche Inhalte in diesem Verzeichnis zu finden waren. Wenn Ihr mögt, könnt Ihr euch die komplette Liste hier ansehen.

    Sichtbarkeisverlauf der stärksten Unterverzeichnisse auf Softonic.com/s/

    Sichtbarkeisverlauf der stärksten Unterverzeichnisse auf Softonic.com/s/

    Schauen wir uns die Rankings in den Wochen vor dem Absturz an, findet sich zum Beispiel die URL http://en.softonic.com/s/microsoft-office/ für die Suchanfrage „microsoft office“. Wenn wir diese URL im Browser öffnen, zeigt sich uns eine Ergebnisseite der internen Suche auf Softonic.

    Die URL http://en.softonic.com/s/microsoft-office/ zeigt das Ergebnis einer internen Suche auf Softonic für das Keywort "microsoft office"

    Die URL http://en.softonic.com/s/microsoft-office/ zeigt das Ergebnis einer internen Suche auf Softonic für das Keywort „microsoft office“

    Wenn wir uns auch die restlichen Ergebnisse aus obiger Liste anschauen wird schnell klar, dass alle Ergebnisse im Verzeichnis /s/ aus internen Suchseiten bestehen. Also „SERPs in SERPs“.

    Fazit

    Hiermit sehen wir uns einem Problem gegenübergestellt, mit dem Google sich schon seit Ewigkeiten herumschlägt: Suchergebnisse innerhalb der Suchergebnisse. Schon 2007 hat Matt Cutts es für nötig empfunden dieser Thematik einem eigenen Artikel zu widmen (Engl.). Googles Richtlinien für Webmaster beschäftigen sich damit im Unterpunkt „Brückenseiten„: Im Wesentlichen ähnliche Seiten, die eher Suchergebnissen ähneln als einer klar definierten, durchsuchbaren Hierarchie.

    Viele Webseitenbetreiber nutzen gerne die umfangreichen Möglichkeiten die Kategorienseiten für gute Rankings bei wichtigen Keywords bieten. Hierbei handelt es sich um eine Strategie mit vielen Gesichtern. Einige gut funktionierende Beispiele sind: die spanische Zeitung Elpais.com, die deutsche Zeitung Sueddeutsche, Theguardian.com und Quora.com (wo auch die HTML Sitemap als Kategorienseite genutzt wird).

    Kategorienseiten zu nutzen kann sich als großartige Idee herausstellen und den Rankings einer Seite maßgeblich zugute kommen. Es ist jedoch wichtig aufzupassen wie genau man diese Strategie umsetzt, da Google es schon seit Jahren klarstellt, dass Suchergebnisseiten im Google-Index nicht erwünscht sind.

    Da Themenseiten intern häufig so aufgebaut sind, dass sie im Kern eine interne Suche über die eigenen Artikel zu einem Stichwort sind, besteht die Gefahr bei Google in Missgunst zu fallen.

    Damit dies nicht geschieht, sollte in die Erstellung und Ausgestaltung dieser Seiten ruhig der ein oder andere Manntag mehr investiert werden, als unbedingt nötig. Auch dann werden es noch die Seiten der Domain sein, die mit dem wenigsten Aufwand die meisten Besucher bringen.

    Schlussendlich noch ein Satz: Grundsätzlich es ist eine Gratwanderung was Google als eine Kategorienseite akzeptiert und wann Google diese als Suchergebnis zählt. Klare Richtlinien hat Google nicht. Das Verzeiches jedoch /s/, für Search, zu nennen, lässt nicht viel Raum für Interpretationen.


    Update 08.06.2016:
    Jennifer Woodard, Softonics Pressesprecherin, hat gestern, nach der Veröffentlichung der spanischen Version dieses Blogposts, auf Twitter eine manuelle Maßnahme wegen „Thin Content“ auf deren Suchseiten bestätigt und mitgeteilt, dass schon an einer Lösung gearbeitet wird.

    Wir wünschen dem Softonic Team viel Erfolg!

    sistrix.de

  • Tag Archives: Google

  • Fallstudie: Softonic.com ist wahrscheinlich von einer manuellen Abstrafung seitens Google betroffen

    Juni 8, 2016 7:11 pm - Posted by admin Category:SEO + SEM

    Der Sichtbarkeitsverlauf für Softonic.com zeigt einen Rückgang von 40% in den USA, 33% im Vereinten Königreich, 42% in Deutschland, 61% in Italien, 53% in Frankreich, 31% in den Niederlanden, 43% in Brasilien, 45% in ihrem Heimatmarkt Spanien und vielen weiteren Ländern auch. Für den Rest diese Auswertung schauen wir uns nur den US Markt an, da das Problem für alle Länder gleich ist.

    Sichtbarkeisverlauf für Softonic.com in den Suchmärkten US, UK und DE

    Sichtbarkeisverlauf für Softonic.com in den Suchmärkten US, UK und DE

    Wenn wir uns die Sichtbarkeit für das stärkste Verzeichnis auf Softonic für den US Amerikanischen Suchmarkt anschauen, in diesem Fall /s/, sticht sofort ein massiver Sichtbarkeitsverlust ins Auge. Welchen Einfluss hatte dieses Verzeichnis eigentlich auf die komplette Domain? Das Verzeichnis hat noch vor zwei Wochen einen Löwenanteil von 40% der Sichtbarkeit der kompletten Domain ausgemacht (84 der 208 Punkte der Domain im Sichtbarkeitsindex). Heute macht dieses Verzeichnis nicht einmal 0.5% der Domain Sichtbarkeit aus.

    Sichtbarkeisverlauf der stärksten Verzeichnisse auf Softonic.com

    Sichtbarkeisverlauf der stärksten Verzeichnisse auf Softonic.com

    Was ist mit dem /s/ Verzeichnis geschehen?

    Zuerst müssen wir uns anschauen, welche Inhalte in diesem Verzeichnis zu finden waren. Wenn Ihr mögt, könnt Ihr euch die komplette Liste hier ansehen.

    Sichtbarkeisverlauf der stärksten Unterverzeichnisse auf Softonic.com/s/

    Sichtbarkeisverlauf der stärksten Unterverzeichnisse auf Softonic.com/s/

    Schauen wir uns die Rankings in den Wochen vor dem Absturz an, findet sich zum Beispiel die URL http://en.softonic.com/s/microsoft-office/ für die Suchanfrage „microsoft office“. Wenn wir diese URL im Browser öffnen, zeigt sich uns eine Ergebnisseite der internen Suche auf Softonic.

    Die URL http://en.softonic.com/s/microsoft-office/ zeigt das Ergebnis einer internen Suche auf Softonic für das Keywort "microsoft office"

    Die URL http://en.softonic.com/s/microsoft-office/ zeigt das Ergebnis einer internen Suche auf Softonic für das Keywort „microsoft office“

    Wenn wir uns auch die restlichen Ergebnisse aus obiger Liste anschauen wird schnell klar, dass alle Ergebnisse im Verzeichnis /s/ aus internen Suchseiten bestehen. Also „SERPs in SERPs“.

    Fazit

    Hiermit sehen wir uns einem Problem gegenübergestellt, mit dem Google sich schon seit Ewigkeiten herumschlägt: Suchergebnisse innerhalb der Suchergebnisse. Schon 2007 hat Matt Cutts es für nötig empfunden dieser Thematik einem eigenen Artikel zu widmen (Engl.). Googles Richtlinien für Webmaster beschäftigen sich damit im Unterpunkt „Brückenseiten„: Im Wesentlichen ähnliche Seiten, die eher Suchergebnissen ähneln als einer klar definierten, durchsuchbaren Hierarchie.

    Viele Webseitenbetreiber nutzen gerne die umfangreichen Möglichkeiten die Kategorienseiten für gute Rankings bei wichtigen Keywords bieten. Hierbei handelt es sich um eine Strategie mit vielen Gesichtern. Einige gut funktionierende Beispiele sind: die spanische Zeitung Elpais.com, die deutsche Zeitung Sueddeutsche, Theguardian.com und Quora.com (wo auch die HTML Sitemap als Kategorienseite genutzt wird).

    Kategorienseiten zu nutzen kann sich als großartige Idee herausstellen und den Rankings einer Seite maßgeblich zugute kommen. Es ist jedoch wichtig aufzupassen wie genau man diese Strategie umsetzt, da Google es schon seit Jahren klarstellt, dass Suchergebnisseiten im Google-Index nicht erwünscht sind.

    Da Themenseiten intern häufig so aufgebaut sind, dass sie im Kern eine interne Suche über die eigenen Artikel zu einem Stichwort sind, besteht die Gefahr bei Google in Missgunst zu fallen.

    Damit dies nicht geschieht, sollte in die Erstellung und Ausgestaltung dieser Seiten ruhig der ein oder andere Manntag mehr investiert werden, als unbedingt nötig. Auch dann werden es noch die Seiten der Domain sein, die mit dem wenigsten Aufwand die meisten Besucher bringen.

    Schlussendlich noch ein Satz: Grundsätzlich es ist eine Gratwanderung was Google als eine Kategorienseite akzeptiert und wann Google diese als Suchergebnis zählt. Klare Richtlinien hat Google nicht. Das Verzeiches jedoch /s/, für Search, zu nennen, lässt nicht viel Raum für Interpretationen.


    Update 08.06.2016:
    Jennifer Woodard, Softonics Pressesprecherin, hat gestern, nach der Veröffentlichung der spanischen Version dieses Blogposts, auf Twitter eine manuelle Maßnahme wegen „Thin Content“ auf deren Suchseiten bestätigt und mitgeteilt, dass schon an einer Lösung gearbeitet wird.

    Wir wünschen dem Softonic Team viel Erfolg!

    sistrix.de

  • Tag Archives: Google

  • Spielt Google ein Neujahrs-Update aus?

    Mai 11, 2016 7:08 am - Posted by admin Category:SEO + SEM

    Nicht mehr lange und das chinesische Jahr des Feuer-Affens beginnt. Über das Wochenende gab es in den sozialen Medien zahlreiche Vermutungen, dass Google bereits vor dem chinesischen Jahreswechsel (und kurz nach unserem Jahreswechsel) das lange angekündigte und von vielen sehnlichst erwartete Penguin-4.0-Update ausspielt. Die Daten von zahlreichen “SEO-Wetter”-Trackern sprechen (teilweise) dafür. Johannes Müller von Google erklärt über Twitter, dass aktuell nichts bekanntzugeben sei.

    Um Gewissheit zu haben, habe ich gerade einen aktuellen Sichtbarkeitsindex für Deutschland berechnet. Die Werte sind maximal eine Stunde alt. Die Top-50 Gewinner und Verlierer hier als Google Doc. Zusammenfassung: keine besonderen Schwankungen, die über das normale Maß ungewöhnlich hinausgehen. Unter den Verliererdomains sind keine besonderen Häufungen zu sehen und auch bei den Gewinnern sehe ich keine Anzeichen für ein großes Algorithmus-Update. Für Deutschland lässt sich damit zum aktuellen Zeitpunkt ausschließen, dass Penguin 4.0 bereits live ist. Aber was nicht ist, kann ja noch werden: wir behalten die Entwicklung im Auge.

    sistrix.de

  • Tag Archives: Google

  • Klauen die News den organischen Treffern bei Google einen Platz in den Top-10?

    September 3, 2014 1:19 pm - Posted by admin Category:SEO + SEM

    Neuerdings besteht die Suchergebnisseite bei Google anscheinend nur noch aus 9 organischen Treffern, wenn über die Universal Search gleichzeitig News angezeigt werden.

    In der Vergangenheit wurden sogenannte Universal Search Integrationen zusätzlich zu den üblichen 10 organischen Treffern auf der ersten Suchergebnisseite bei Google angezeigt. Ein Spezialfall waren immer die Places-Integrationen, die aus Hybriden Treffern bestehen können.

    In der letzten Woche ist mir bei der Suche nach „bonn“ erstmals ein Suchergebnis aufgefallen, bei dem es rund um die Universal Search Treffer aus den Bereichen News und Bilder nur 9 organische Treffer gab. Diese Fälle lassen sich für andere Suchen reproduzieren.

    Nach einer ersten kleinen händischen Stichprobe sieht es so aus, als ob die Universal Search Integrationen von News den organischen Treffern einen Platz in den Top-10 kostet.

    Dieser Screenshot zeigt das heutige Suchergebnis für die Suchanfrage „deutschland argentinien“ (zum Vergrößern anklicken).

    Nur 9 organische Treffer

    Wie man leicht erkennt, werden auf der ersten SERP neben den News aus der Universal Search nur 9 organische Treffer angezeigt.

    Sucht man zum Vergleich „topflappen“, spielt Google eine Integration von Bildern aus und schenkt weiterhin 10 organischen Treffern einen Platz an der Sonne.

    Website mit Keywords, zu denen es häufig News git, dürfte diese Änderung bei Google einige Besucher kosten, da sie bei einigen Suchbegriffen von der ersten Suchergebnisseite verdrängt werden.

    Was sind Eure Beobachtungen? Findet Ihr Beispiele für SERPS mit News und 10 organischen Treffern?

    The post Klauen die News den organischen Treffern bei Google einen Platz in den Top-10? appeared first on SISTRIX.

    SISTRIX

  • Tag Archives: Google

  • Google Panda Update und User-generated content

    August 19, 2014 1:08 pm - Posted by admin Category:SEO + SEM

    In den letzen Jahren waren Websites mit User-generated content wie Foren und Frage-und-Antwort-Portale häufig vom Google Panda Update betroffen. User-generated content besitzt nicht grundsätzlich eine schlechte Qualität. Aber ohne redaktionelle Pflege entsteht oft ein Wildwuchs, welcher die Qualität herunterzieht.

    Die Google Nutzer bevorzugen oft einen gut recherchierten und hochwertig geschriebenen Fachartikel anstelle von Community-Inhalten, bei denen gerne zehn Personen zwölf verschiedene Meinungen vertreten, so dass der Nutzer noch dem Lesen der Lektüre noch mehr verwirrt ist als vorher.

    Problematisch sind sicherlich auch Spam-Beiträge aus der Community und eine Vielzahl sehr ähnlicher Posts zu dem gleichen Thema, die sich sich inhaltlich überschneiden und gegenseitig kannibalisieren. Das sind nur einige Beispiele, warum User-generated content oftmals keine besonders hohe Qualität besitzt.

    Besonders tragisch ist die Situation, wenn eine Website qualitativ wertvollen Content z.B. in Form von Fachartikeln besitzt und gleichzeitig einen wild wuchernden Bereich mit User-generated content auf der Domain vorhanden ist. Es kommt vor, dass der Panda Algorithmus dann die gesamte Website herabstuft und auch die Seiten mit dem hochwertigen Content plötzlich Rankings verlieren.

    Einen solchen Fall hatten wir 2012 mit der Fallstudie zu netdoktor.de beschrieben (SEO-Analysen mit dem SISTRIX Sichtbarkeitsindex Seite 59 ff.). Als Lösung haben wir vorgeschlagen, dass netdoktor.de die Community-Inhalte deindexieren kann, oder sie auf eine zweite Domain auszulagert. Die zweite Domain könnte die Funktion einer „Bad Bank“ für schlechte Nutzersignale übernehmen (S. 72).

    Diese Lösungsmöglichkeiten hat jetzt auch John Mueller im Google Webmaster Hangout bestätigt. Ihr findet seine Antwort im Video ab Minute 11:36 bis Minute 16:05.

    John empfiehlt ein für die Website passendes System zu finden, um User-generated content mit geringem Mehrwert auszufiltern und auf NoIndex zu stellen. Sollte das aus irgendwelchen Gründen nicht möglich sein, sollte der User-generated content auf eine andere Domain ausgelagert werden, um die Website vor dem Panda Algorithmus zu schützen. Eine Auslagerung auf eine Sub-Domain ist nicht ausreichend, um einen sicheren Schutz zu ge­währ­leis­ten.

    The post Google Panda Update und User-generated content appeared first on SISTRIX.

    SISTRIX

  • Tag Archives: Google

  • Google straft ein weiteres deutsches und europäisches Linknetzwerk ab

    August 18, 2014 7:09 pm - Posted by admin Category:SEO + SEM

    Am Wochenende tauchten bei Facebook zahlreiche Beiträge auf, dass aktuell viele Websites Benachrichtigungen über die Google Webmaster Tools (GWT) wegen Linkkauf und Linkverkauf erhalten haben.

    Heute bestätigt Johannes Mehlem, Quality Rater bei Google, dass Maßnahmen gegen ein europäisches sowie ein deutsches Linknetzwerk eingeleitet wurden.

    Abstrafung Linknetzwerke

    Aufgrund der Menge an Beiträgen bei Facebook wäre es nicht überraschend, wenn es sich um große Linknetzwerke handelt.

    The post Google straft ein weiteres deutsches und europäisches Linknetzwerk ab appeared first on SISTRIX.

    SISTRIX

  • Tag Archives: Google

  • Auswirkung negativer Nutzersignale auf das Google Ranking

    August 13, 2014 1:44 pm - Posted by admin Category:SEO + SEM

    Die Startseite der Domain hotel-bonn.de bietet ein sehr schönes Beispiel dafür, welchen Einfluss Nutzersignale auf das Google-Ranking zu einem bestimmten Keyword haben können.

    Bei der Domain handelt es sich um eine uralte Exact-Match Domain für das Keyword “hotel bonn“. Die beiden Wörter “Hotel“ und “Bonn“ kommen auf der Startseite vor und sind ebenfalls in einigen externe Backlinks enthalten. Für Google gibt es also deutliche Rankingsignale die Website hotel-bonn.de für das Keyword “hotel bonn” relativ weit oben als Treffer anzuzeigen.

    Schauen wir uns den Rankingverlauf der Domain für das Keyword an, so sehen wir ein stetiges Auf und Ab.

    Rankingverlauf hotel-bonn.de zu dem Keyword "hotel bonn"

    In gewissen Abständen ist die Domain für wenige Wochen in den Top 10 zu finden und verschwindet dann wieder für einen längeren Zeitraum von der ersten Suchergebnisseite. Zeitweise schafft sie es bis auf Platz 2 für die attraktive und umkämpfte Suchphrase “hotel bonn“.

    Hotel BonnDas Problem ist, dass es bei der Website nicht um ein Hotel in der wunderschönen Bundesstadt Bonn geht, wie man eigentlich vermuten könnte. Vielmehr handelt es sich um die Seite eines Hotels in Baunatal am Stadtrand von Kassel. Es wird von einer Familie mit dem Nachnamen Bonn betrieben und heißt deshalb “Landgasthaus Hotel Bonn”.

    Der überwiegende Teil der Google-Nutzer dürfte bei der Suche nach „hotel bonn“ ein Hotel in der Stadt Bonn suchen (User Intent). Ein Hotel 2,5 Stunden Fahrzeit von Bonn entfernt am Stadtrand von Kassel ist für die meisten Nutzer daher kein besonders guter Treffer für ihre durchgeführte Suche.

    Treffer Hotel BonnViele Suchende werden erst gar nicht auf den Treffer klicken, weil sie im Snippet des Treffers bereits “Hotel und Landgasthaus am Stadtrand von Kassel“ gelesen haben. Ein weiterer Teil klickt ihn an, kehrt aber im Vergleich zu den anderen Treffern überdurchschnittlich oft zu Google zurück, um ein anderes Ergebnis auszuwählen (hohe Return-to-SERP-Rate).

    Als Ergebnis kann man dem Google Algorithmus bei der Arbeit zuschauen. Aufgrund der vorhandenen positiven Rankingsignale testet Google den Treffer von hotel-bonn.de alle paar Monate in den Top 10 zu dem Keyword “hotel bonn“. Bei den Nutzern fällt der Treffer jedoch durch, so dass Google in für einige Zeit aus den Top 10 wieder entfernt.

    Entsprechend volatil ist dann auch die Entwicklung des Sichtbarkeitsindex der Domain hotel-bonn.de

    Sichtbarkeisindex hotel-bonn.de

    Gerade weil das Beispiel so simpel ist, zeigt es sehr anschaulich, vor welchen Problemen Google und Websitebetreiber stehen, wenn Rankingsignale und User Intent nicht übereinstimmen. Stark schwankende Rankings können ein Signal sein, dass eine Website einfach die falschen Signale an Google sendet.

    The post Auswirkung negativer Nutzersignale auf das Google Ranking appeared first on SISTRIX.

    SISTRIX