• E-commerce Solution

    Umsatz machen… … 24 Stunden am Tag, 365 Tage im Jahr. Die Anzahl der sogenannten Webshops oder eShops auf dem Marktplatz Internet steigt täglich an.

    Read More
  • Link Building

    Während bei der Onpage- oder Onsite-Optimierung einer Webseite vornehmlich die Struktur und der Inhalt optimiert werden, fokussiert man beim Linkaufbau in erster Linie das Umfeld der betreffenden Webseite. Beim Linkaufbau versucht man die Anzahl der auf die eigene Webseite verweisenden …

    Read More
  • Content Management

    Open Source Software aus Überzeugung Ein Tätigkeitsschwerpunkt von hauptsache.net ist die Entwicklung von Lösungen unter Verwendung von Open Source Software.

    Read More
  • Web Development

    Comming soon!

    Read More
  • SEO Consulting

    Wie „denken“ Suchmaschinen? Suchmaschinen arbeiten auf unterschiedliche Art und Weise. 

    Read More

    Tag Archives: Fallstudie

  • Fallstudie: Softonic.com ist wahrscheinlich von einer manuellen Abstrafung seitens Google betroffen

    Juni 15, 2016 1:55 pm - Posted by admin Category:SEO + SEM

    Der Sichtbarkeitsverlauf für Softonic.com zeigt einen Rückgang von 40% in den USA, 33% im Vereinten Königreich, 42% in Deutschland, 61% in Italien, 53% in Frankreich, 31% in den Niederlanden, 43% in Brasilien, 45% in ihrem Heimatmarkt Spanien und vielen weiteren Ländern auch. Für den Rest diese Auswertung schauen wir uns nur den US Markt an, da das Problem für alle Länder gleich ist.

    Sichtbarkeisverlauf für Softonic.com in den Suchmärkten US, UK und DE

    Sichtbarkeisverlauf für Softonic.com in den Suchmärkten US, UK und DE

    Wenn wir uns die Sichtbarkeit für das stärkste Verzeichnis auf Softonic für den US Amerikanischen Suchmarkt anschauen, in diesem Fall /s/, sticht sofort ein massiver Sichtbarkeitsverlust ins Auge. Welchen Einfluss hatte dieses Verzeichnis eigentlich auf die komplette Domain? Das Verzeichnis hat noch vor zwei Wochen einen Löwenanteil von 40% der Sichtbarkeit der kompletten Domain ausgemacht (84 der 208 Punkte der Domain im Sichtbarkeitsindex). Heute macht dieses Verzeichnis nicht einmal 0.5% der Domain Sichtbarkeit aus.

    Sichtbarkeisverlauf der stärksten Verzeichnisse auf Softonic.com

    Sichtbarkeisverlauf der stärksten Verzeichnisse auf Softonic.com

    Was ist mit dem /s/ Verzeichnis geschehen?

    Zuerst müssen wir uns anschauen, welche Inhalte in diesem Verzeichnis zu finden waren. Wenn Ihr mögt, könnt Ihr euch die komplette Liste hier ansehen.

    Sichtbarkeisverlauf der stärksten Unterverzeichnisse auf Softonic.com/s/

    Sichtbarkeisverlauf der stärksten Unterverzeichnisse auf Softonic.com/s/

    Schauen wir uns die Rankings in den Wochen vor dem Absturz an, findet sich zum Beispiel die URL http://en.softonic.com/s/microsoft-office/ für die Suchanfrage „microsoft office“. Wenn wir diese URL im Browser öffnen, zeigt sich uns eine Ergebnisseite der internen Suche auf Softonic.

    Die URL http://en.softonic.com/s/microsoft-office/ zeigt das Ergebnis einer internen Suche auf Softonic für das Keywort "microsoft office"

    Die URL http://en.softonic.com/s/microsoft-office/ zeigt das Ergebnis einer internen Suche auf Softonic für das Keywort „microsoft office“

    Wenn wir uns auch die restlichen Ergebnisse aus obiger Liste anschauen wird schnell klar, dass alle Ergebnisse im Verzeichnis /s/ aus internen Suchseiten bestehen. Also „SERPs in SERPs“.

    Fazit

    Hiermit sehen wir uns einem Problem gegenübergestellt, mit dem Google sich schon seit Ewigkeiten herumschlägt: Suchergebnisse innerhalb der Suchergebnisse. Schon 2007 hat Matt Cutts es für nötig empfunden dieser Thematik einem eigenen Artikel zu widmen (Engl.). Googles Richtlinien für Webmaster beschäftigen sich damit im Unterpunkt „Brückenseiten„: Im Wesentlichen ähnliche Seiten, die eher Suchergebnissen ähneln als einer klar definierten, durchsuchbaren Hierarchie.

    Viele Webseitenbetreiber nutzen gerne die umfangreichen Möglichkeiten die Kategorienseiten für gute Rankings bei wichtigen Keywords bieten. Hierbei handelt es sich um eine Strategie mit vielen Gesichtern. Einige gut funktionierende Beispiele sind: die spanische Zeitung Elpais.com, die deutsche Zeitung Sueddeutsche, Theguardian.com und Quora.com (wo auch die HTML Sitemap als Kategorienseite genutzt wird).

    Kategorienseiten zu nutzen kann sich als großartige Idee herausstellen und den Rankings einer Seite maßgeblich zugute kommen. Es ist jedoch wichtig aufzupassen wie genau man diese Strategie umsetzt, da Google es schon seit Jahren klarstellt, dass Suchergebnisseiten im Google-Index nicht erwünscht sind.

    Da Themenseiten intern häufig so aufgebaut sind, dass sie im Kern eine interne Suche über die eigenen Artikel zu einem Stichwort sind, besteht die Gefahr bei Google in Missgunst zu fallen.

    Damit dies nicht geschieht, sollte in die Erstellung und Ausgestaltung dieser Seiten ruhig der ein oder andere Manntag mehr investiert werden, als unbedingt nötig. Auch dann werden es noch die Seiten der Domain sein, die mit dem wenigsten Aufwand die meisten Besucher bringen.

    Schlussendlich noch ein Satz: Grundsätzlich es ist eine Gratwanderung was Google als eine Kategorienseite akzeptiert und wann Google diese als Suchergebnis zählt. Klare Richtlinien hat Google nicht. Das Verzeiches jedoch /s/, für Search, zu nennen, lässt nicht viel Raum für Interpretationen.


    Update 08.06.2016:
    Jennifer Woodard, Softonics Pressesprecherin, hat gestern, nach der Veröffentlichung der spanischen Version dieses Blogposts, auf Twitter eine manuelle Maßnahme wegen „Thin Content“ auf deren Suchseiten bestätigt und mitgeteilt, dass schon an einer Lösung gearbeitet wird.

    Wir wünschen dem Softonic Team viel Erfolg!

    sistrix.de

  • Tag Archives: Fallstudie

  • Fallstudie: Softonic.com ist wahrscheinlich von einer manuellen Abstrafung seitens Google betroffen

    Juni 14, 2016 7:19 pm - Posted by admin Category:SEO + SEM

    Der Sichtbarkeitsverlauf für Softonic.com zeigt einen Rückgang von 40% in den USA, 33% im Vereinten Königreich, 42% in Deutschland, 61% in Italien, 53% in Frankreich, 31% in den Niederlanden, 43% in Brasilien, 45% in ihrem Heimatmarkt Spanien und vielen weiteren Ländern auch. Für den Rest diese Auswertung schauen wir uns nur den US Markt an, da das Problem für alle Länder gleich ist.

    Sichtbarkeisverlauf für Softonic.com in den Suchmärkten US, UK und DE

    Sichtbarkeisverlauf für Softonic.com in den Suchmärkten US, UK und DE

    Wenn wir uns die Sichtbarkeit für das stärkste Verzeichnis auf Softonic für den US Amerikanischen Suchmarkt anschauen, in diesem Fall /s/, sticht sofort ein massiver Sichtbarkeitsverlust ins Auge. Welchen Einfluss hatte dieses Verzeichnis eigentlich auf die komplette Domain? Das Verzeichnis hat noch vor zwei Wochen einen Löwenanteil von 40% der Sichtbarkeit der kompletten Domain ausgemacht (84 der 208 Punkte der Domain im Sichtbarkeitsindex). Heute macht dieses Verzeichnis nicht einmal 0.5% der Domain Sichtbarkeit aus.

    Sichtbarkeisverlauf der stärksten Verzeichnisse auf Softonic.com

    Sichtbarkeisverlauf der stärksten Verzeichnisse auf Softonic.com

    Was ist mit dem /s/ Verzeichnis geschehen?

    Zuerst müssen wir uns anschauen, welche Inhalte in diesem Verzeichnis zu finden waren. Wenn Ihr mögt, könnt Ihr euch die komplette Liste hier ansehen.

    Sichtbarkeisverlauf der stärksten Unterverzeichnisse auf Softonic.com/s/

    Sichtbarkeisverlauf der stärksten Unterverzeichnisse auf Softonic.com/s/

    Schauen wir uns die Rankings in den Wochen vor dem Absturz an, findet sich zum Beispiel die URL http://en.softonic.com/s/microsoft-office/ für die Suchanfrage „microsoft office“. Wenn wir diese URL im Browser öffnen, zeigt sich uns eine Ergebnisseite der internen Suche auf Softonic.

    Die URL http://en.softonic.com/s/microsoft-office/ zeigt das Ergebnis einer internen Suche auf Softonic für das Keywort "microsoft office"

    Die URL http://en.softonic.com/s/microsoft-office/ zeigt das Ergebnis einer internen Suche auf Softonic für das Keywort „microsoft office“

    Wenn wir uns auch die restlichen Ergebnisse aus obiger Liste anschauen wird schnell klar, dass alle Ergebnisse im Verzeichnis /s/ aus internen Suchseiten bestehen. Also „SERPs in SERPs“.

    Fazit

    Hiermit sehen wir uns einem Problem gegenübergestellt, mit dem Google sich schon seit Ewigkeiten herumschlägt: Suchergebnisse innerhalb der Suchergebnisse. Schon 2007 hat Matt Cutts es für nötig empfunden dieser Thematik einem eigenen Artikel zu widmen (Engl.). Googles Richtlinien für Webmaster beschäftigen sich damit im Unterpunkt „Brückenseiten„: Im Wesentlichen ähnliche Seiten, die eher Suchergebnissen ähneln als einer klar definierten, durchsuchbaren Hierarchie.

    Viele Webseitenbetreiber nutzen gerne die umfangreichen Möglichkeiten die Kategorienseiten für gute Rankings bei wichtigen Keywords bieten. Hierbei handelt es sich um eine Strategie mit vielen Gesichtern. Einige gut funktionierende Beispiele sind: die spanische Zeitung Elpais.com, die deutsche Zeitung Sueddeutsche, Theguardian.com und Quora.com (wo auch die HTML Sitemap als Kategorienseite genutzt wird).

    Kategorienseiten zu nutzen kann sich als großartige Idee herausstellen und den Rankings einer Seite maßgeblich zugute kommen. Es ist jedoch wichtig aufzupassen wie genau man diese Strategie umsetzt, da Google es schon seit Jahren klarstellt, dass Suchergebnisseiten im Google-Index nicht erwünscht sind.

    Da Themenseiten intern häufig so aufgebaut sind, dass sie im Kern eine interne Suche über die eigenen Artikel zu einem Stichwort sind, besteht die Gefahr bei Google in Missgunst zu fallen.

    Damit dies nicht geschieht, sollte in die Erstellung und Ausgestaltung dieser Seiten ruhig der ein oder andere Manntag mehr investiert werden, als unbedingt nötig. Auch dann werden es noch die Seiten der Domain sein, die mit dem wenigsten Aufwand die meisten Besucher bringen.

    Schlussendlich noch ein Satz: Grundsätzlich es ist eine Gratwanderung was Google als eine Kategorienseite akzeptiert und wann Google diese als Suchergebnis zählt. Klare Richtlinien hat Google nicht. Das Verzeiches jedoch /s/, für Search, zu nennen, lässt nicht viel Raum für Interpretationen.


    Update 08.06.2016:
    Jennifer Woodard, Softonics Pressesprecherin, hat gestern, nach der Veröffentlichung der spanischen Version dieses Blogposts, auf Twitter eine manuelle Maßnahme wegen „Thin Content“ auf deren Suchseiten bestätigt und mitgeteilt, dass schon an einer Lösung gearbeitet wird.

    Wir wünschen dem Softonic Team viel Erfolg!

    sistrix.de

  • Tag Archives: Fallstudie

  • Fallstudie: Softonic.com ist wahrscheinlich von einer manuellen Abstrafung seitens Google betroffen

    Juni 8, 2016 7:11 pm - Posted by admin Category:SEO + SEM

    Der Sichtbarkeitsverlauf für Softonic.com zeigt einen Rückgang von 40% in den USA, 33% im Vereinten Königreich, 42% in Deutschland, 61% in Italien, 53% in Frankreich, 31% in den Niederlanden, 43% in Brasilien, 45% in ihrem Heimatmarkt Spanien und vielen weiteren Ländern auch. Für den Rest diese Auswertung schauen wir uns nur den US Markt an, da das Problem für alle Länder gleich ist.

    Sichtbarkeisverlauf für Softonic.com in den Suchmärkten US, UK und DE

    Sichtbarkeisverlauf für Softonic.com in den Suchmärkten US, UK und DE

    Wenn wir uns die Sichtbarkeit für das stärkste Verzeichnis auf Softonic für den US Amerikanischen Suchmarkt anschauen, in diesem Fall /s/, sticht sofort ein massiver Sichtbarkeitsverlust ins Auge. Welchen Einfluss hatte dieses Verzeichnis eigentlich auf die komplette Domain? Das Verzeichnis hat noch vor zwei Wochen einen Löwenanteil von 40% der Sichtbarkeit der kompletten Domain ausgemacht (84 der 208 Punkte der Domain im Sichtbarkeitsindex). Heute macht dieses Verzeichnis nicht einmal 0.5% der Domain Sichtbarkeit aus.

    Sichtbarkeisverlauf der stärksten Verzeichnisse auf Softonic.com

    Sichtbarkeisverlauf der stärksten Verzeichnisse auf Softonic.com

    Was ist mit dem /s/ Verzeichnis geschehen?

    Zuerst müssen wir uns anschauen, welche Inhalte in diesem Verzeichnis zu finden waren. Wenn Ihr mögt, könnt Ihr euch die komplette Liste hier ansehen.

    Sichtbarkeisverlauf der stärksten Unterverzeichnisse auf Softonic.com/s/

    Sichtbarkeisverlauf der stärksten Unterverzeichnisse auf Softonic.com/s/

    Schauen wir uns die Rankings in den Wochen vor dem Absturz an, findet sich zum Beispiel die URL http://en.softonic.com/s/microsoft-office/ für die Suchanfrage „microsoft office“. Wenn wir diese URL im Browser öffnen, zeigt sich uns eine Ergebnisseite der internen Suche auf Softonic.

    Die URL http://en.softonic.com/s/microsoft-office/ zeigt das Ergebnis einer internen Suche auf Softonic für das Keywort "microsoft office"

    Die URL http://en.softonic.com/s/microsoft-office/ zeigt das Ergebnis einer internen Suche auf Softonic für das Keywort „microsoft office“

    Wenn wir uns auch die restlichen Ergebnisse aus obiger Liste anschauen wird schnell klar, dass alle Ergebnisse im Verzeichnis /s/ aus internen Suchseiten bestehen. Also „SERPs in SERPs“.

    Fazit

    Hiermit sehen wir uns einem Problem gegenübergestellt, mit dem Google sich schon seit Ewigkeiten herumschlägt: Suchergebnisse innerhalb der Suchergebnisse. Schon 2007 hat Matt Cutts es für nötig empfunden dieser Thematik einem eigenen Artikel zu widmen (Engl.). Googles Richtlinien für Webmaster beschäftigen sich damit im Unterpunkt „Brückenseiten„: Im Wesentlichen ähnliche Seiten, die eher Suchergebnissen ähneln als einer klar definierten, durchsuchbaren Hierarchie.

    Viele Webseitenbetreiber nutzen gerne die umfangreichen Möglichkeiten die Kategorienseiten für gute Rankings bei wichtigen Keywords bieten. Hierbei handelt es sich um eine Strategie mit vielen Gesichtern. Einige gut funktionierende Beispiele sind: die spanische Zeitung Elpais.com, die deutsche Zeitung Sueddeutsche, Theguardian.com und Quora.com (wo auch die HTML Sitemap als Kategorienseite genutzt wird).

    Kategorienseiten zu nutzen kann sich als großartige Idee herausstellen und den Rankings einer Seite maßgeblich zugute kommen. Es ist jedoch wichtig aufzupassen wie genau man diese Strategie umsetzt, da Google es schon seit Jahren klarstellt, dass Suchergebnisseiten im Google-Index nicht erwünscht sind.

    Da Themenseiten intern häufig so aufgebaut sind, dass sie im Kern eine interne Suche über die eigenen Artikel zu einem Stichwort sind, besteht die Gefahr bei Google in Missgunst zu fallen.

    Damit dies nicht geschieht, sollte in die Erstellung und Ausgestaltung dieser Seiten ruhig der ein oder andere Manntag mehr investiert werden, als unbedingt nötig. Auch dann werden es noch die Seiten der Domain sein, die mit dem wenigsten Aufwand die meisten Besucher bringen.

    Schlussendlich noch ein Satz: Grundsätzlich es ist eine Gratwanderung was Google als eine Kategorienseite akzeptiert und wann Google diese als Suchergebnis zählt. Klare Richtlinien hat Google nicht. Das Verzeiches jedoch /s/, für Search, zu nennen, lässt nicht viel Raum für Interpretationen.


    Update 08.06.2016:
    Jennifer Woodard, Softonics Pressesprecherin, hat gestern, nach der Veröffentlichung der spanischen Version dieses Blogposts, auf Twitter eine manuelle Maßnahme wegen „Thin Content“ auf deren Suchseiten bestätigt und mitgeteilt, dass schon an einer Lösung gearbeitet wird.

    Wir wünschen dem Softonic Team viel Erfolg!

    sistrix.de

  • Tag Archives: Fallstudie

  • Fallstudie: Wieso hat hrs.de 90% Sichtbarkeit verloren?

    September 29, 2014 7:11 pm - Posted by admin Category:SEO + SEM

    Bei den fast endlos vielen Domains, die im Google-Index auf- und absteigen, gibt es einige Projekte, denen erhöhte Aufmerksamkeit gewiss ist. Sie leisten bereits seit langer Zeit solide SEO-Arbeit, werden häufig als Blaupause für Erfolg herangezogen und stehen stellvertretend für ihre Branche. Für mich treffen diese Kriterien auch auf hrs.de zu.

    Sichtbarkeitsindex HRS.de

    Als die Domain in der letzten Woche massiv im Sichtbarkeitsindex verloren hat, entsponn sich bei Facebook eine kleine Diskussion zu den möglichen Ursachen. HRS gibt an, eine Umstellung der URL-Struktur vorzunehmen. Auswirkungen auf die Besucher durch Google soll dies angeblich nicht haben. Da es diese Woche erneut einen deutlichen Sichtbarkeitsverlust gab, möchte ich in diesem Blogpost mögliche Ursachen zusammentragen und bewerten. Die interne Umstellung von URLs gilt bislang als eher gefahrlose Operation. Sollte sich das geändert haben?

    Status Quo von hrs.de
    Für den Start der Analyse habe ich 100.000 Seiten von hrs.de mit dem SISTRIX Optimizer gecrawled. Unser Webcrawler verhält sich in weiten Teilen so, wie der Googlebot und ermöglicht damit einen Blick auf den Status Quo der Webseite. Gruppiert man die gecrawlten Seiten nach dem HTML-Status-Code, ergibt sich folgendes Bild:

    status-codes-01

    Nur rund 11% der erfassten Webseiten liefern einen Status-Code 200 zurück und signalisieren Google damit: alles in Ordnung, bitte nehme meine Inhalte in den Index auf. Bei rund 1% der Seiten kam es zu einem Serverfehler (Status-Code: 503). Mehr als 15% der internen Links verweisen auf nicht mehr existente URLs (Status-Code: 404) und über 70% aller aktuell gesetzter, interner Links sind 301-Weiterleitungen. Bei der Bewertung dieser Zahlen ist wichtig, dass es sich um ein aktuelles Abbild der Seite handelt. Der Crawler fängt auf der Startseite der Domain an und folgt internen Links, die der Webseitenbetreiber selber gesetzt hat. Bei hrs.de erhält der Crawler derzeit aber nur bei etwa jeder 10. Seite auf Anhieb eine Antwort vom Server mit dem Status-Code 200, was so viel bedeutet wie OK, die Anfrage wurde erfolgreich bearbeitet und das Ergebnis der Anfrage wird in der Antwort übertragen. In fast 90 % der Fälle antwortet der Server jedoch, dass sich die Inhalte nicht auf der intern verlinkten URL befinden.

    Vertiefend habe ich mir die 301-Weiterleitungen genauer angesehen. In der hier vorkommende Masse sind diese Weiterleitungen höchst ungewöhnlich und unnötig: auf interne Links hat der Webseitenbetreiber immer und sofortigen Einfluss. Es gibt keinen Grund, interne Links nicht direkt auf das richtige Ziel zu setzen. Die meisten der überprüften 301-Weiterleitungen zeigen zum Glück mit nur einem Schritt auf die neue URL des Angebots: vom Hostnamen www.hrs.de wird auf hrs.de (ohne www davor) gewechselt, gleichzeitig wird die URL häufig verkürzt (Beispiel: http://www.hrs.de/hotel/de/nordrhein-westfalen/bonn/ auf http://hrs.de/deutschland/bonn/). Trotzdem kann es auch hier vorkommen, dass eine Weiterleitung auf eine fehlende Zielseite erfolgt (Beispiel: nach der 301-Weiterleitung von http://www.hrs.de/hotels/de/deutschland/essen-nordrhein-westfalen/rheinischer-hof-stadt-gut-hotels-6703.html auf http://hrs.de/deutschland/essen/rheinischer-hof-stadt-gut-hotels.html wird der Crawler mit einem 404 empfangen).

    Dauerhaftigkeit indexierter URLs
    Ging es bislang um die Auswertung von Daten, die aktuell auf der Domain zu finden sind, schaue ich mir im nächsten Schritt etwas ältere Daten an. Am 01.09.2014 und somit vor der URL-Umstellung hatten wir für hrs.de 27.259 unterschiedliche URLs mit mindestens einem Keyword-Ranking in unserem Keywordset gefunden. Crawle ich diese URLs und folge dabei allen Weiterleitungen, ergibt sich folgendes Bild:

    status-codes-02

    Rund 17% der URLs, die Anfang des Monats noch in Google rankten, liefern jetzt einen Fehlercode 404 (Nicht gefunden) zurück. Google verliert in diesem Fall keine Zeit und entfernt diese Seiten aus den Suchergebnissen. Sichtbar wird das beim Keyword “Hotel Ostsee”: rankte hrs.de lange auf Position 1, ist die Ziel-URL jetzt nicht mehr vorhanden und Google hat die Domain aus den SERPs für dieses Keyword geworfen:

    hrs-ranking-ostsee

    Wirksamkeit eingehender Links
    Als letzten Check für die “Webseitengesundheit” von hrs.de habe ich die Verfügbarkeit von Linkzielen überprüft. Aktuell finden wir eingehende Links auf 12.742 unterschiedliche Zielseite innerhalb der Domain hrs.de. Hier die Status-Codes für diese URLs:

    status-codes-03

    Auch hier sind erneut rund 17% der neuen URLs fehlerhaft. Die positiven Effekte von 17 Prozent der eingehenden Links gehen damit verloren.

    Fazit
    Im Ergebnis lässt sich feststellen, dass die URL-Umstellung von hrs.de fehlerhaft und bislang unvollständig umgesetzt wurde. Sehr viele der internen Links sind defekt, die Zielseiten können nicht gefunden werden. Auch zeigen zahlreiche eingerichtete Weiterleitungen ins Leere. Hinzu kommt, dass wichtige Seitenbestandteile wie die Startseite weiterhin auf dem Hostnamen www.hrs.de betrieben werden. Dass die wichtige HTML-Sitemap noch immer auf die alten URLs verlinkt, kann als symptomatisch angesehen werden.

    Trotz dieser augenscheinlichen Fehler ist die Höhe des Sichtbarkeitsverlustes überraschend. Ein Verlust von fast 90% war trotz der Fehler und Versäumnisse nicht zu erwarten. Google listet auch korrekt weitergeleitete Unterseiten nicht auf einer vergleichbaren Positon wie zuvor. Rankte hrs.de für “hotel berlin” vor der Umstellung auf Position 1 oder 2, ist die neue Seite, die korrekt umgeleitet wird und von Google auch indexiert wurde, nicht in den Top-100 zu finden.

    hrs-ranking-berlin

    Eine mögliche Erklärung lautet, dass Google durch den hohen prozentualen Anteil an Onpage-Fehlern das Vertrauen in die Seite als Gesamtes verloren hat und seine Besucher vor eventuell enttäuschenden Erfahrungen schützen will. Sollte dies der Fall sein, reicht eine Bereinigung der Webseite aus. Eine andere Erklärung könnte sein, dass Google durch die Veränderung des Hostnamens (www.hrs.de auf hrs.de) die Umstellung wie einen Domain-Umzug behandelt und eine entsprechend lange Zeit braucht, damit wichtige (Nutzer)-Signale ebenfalls umziehen. Bislang hat Google Umzüge innerhalb einer Domain allerdings freundlicher behandelt und umgehend die alten Rankings übernommen. Wie schätzt ihr die Situation ein?

    The post Fallstudie: Wieso hat hrs.de 90% Sichtbarkeit verloren? appeared first on SISTRIX.

    SISTRIX

  • Tag Archives: Fallstudie

  • Fallstudie: Linkprofil von einzelnen Verzeichnissen beachten

    Oktober 1, 2013 1:13 am - Posted by admin Category:SEO + SEM

    Diese Woche haben wir eine E-Mail mit der Bitte erhalten, die jüngsten Entwicklungen der Domains bergfreunde.de und parhsip.de in einem Blogpost zu analysieren.

    Entwicklung Sichtbarkeitsindex bergfreunde.de und parship.de

    Entwicklung Sichtbarkeitsindex bergfreunde.de und parship.de

    Man sieht bei beiden Domains einen ungewöhnlich starken Einbruch im Sichtbarkeitsindex in den beiden Wochen nach dem 16.09.2013. Wenn mehrere Domains zum gleichen Zeitpunkt eine ähnliche Entwicklung zeigen, stellen sich natürlich Fragen nach eventuell gemeinsamen Ursachen und Google Updates.

    Da sich SEOs häufig solchen Fragen ausgesetzt fühlen, greife ich den Vorschlag zu einem Blogpost gerne auf.

    Selbstverständlich ist es so, dass die Anzahl von zwei Domains zu gering ist, um daraus allgemeingültige Rückschlüsse zu bilden. Eine gemeinsame Entwicklung kann gemeinsame Ursachen haben, aber auch purer Zufall sein. Diskussionen an Einzelbeispielen sind wahrscheinlich auch der Grund, warum in vielen Foren sehr kontrovers diskutiert wird. Für jedes Einzelbeispiel lässt sich garantiert auch ein Gegenbeispiel finden, so dass die Diskussionen oft fruchtlos enden.

    Da Google im Jahr ca. 500 Updates durchführt und sich in jüngster Zeit mit Informationen zu den Updates stark zurückhält, wären Aussagen über ein mögliches Update zudem sehr spekulativ. Es bleibt uns also nicht anderes übrig, als einen tieferen Blick auf die Domains zu werfen und mögliche Theorien für den Rückgang der Sichtbarkeit zu entwickeln.

    In solchen Fällen beginne ich die Analyse immer gerne damit, eine Domain in mehreren Teilstücke zu zerlegen. Das können z.B. Hostnamen (Subdomains) oder Verzeichnisse sein. Auf diese Weise möchte ich herausfinden, ob alle Teilstücke gleichermaßen von einem Rückgang betroffen sind, oder nur bestimmte Teile der Domain. Im ersten Fall wäre der Rückgang eher auf domainweite Kennzahlen zurückzuführen, im zweiten Fall wäre hingegen wahrscheinlich ein konkreter Hostname oder ein bestimmtes Verzeichnis die Ursache. Auf diese Weise lassen sich viele Theorien schon einmal gut ausschließen.

    Schauen wir uns zuerst in SISTRIX Next die Entwicklung der stärksten Verzeichnisse bei bergfreunde.de an. Es lässt sich auf den ersten Blick erkennen, dass nicht alle Verzeichnisse gleichermaßen vom Rückgang betroffen sind. Vielmehr sind für das Verzeichnis www.bergfreunde.de/marken/ deutlich stärkere Rückgänge zu beobachten. Diese erfolgten zeitlich auch schon zu einem früheren Zeitpunkt.

    Sichtbarkeitsindex Verzeichnisse bergfreunde.de

    Sichtbarkeitsindex Verzeichnisse bergfreunde.de

    Ein ähnliches Bild zeigt die Analyse der Verzeichnisse von parship.de. Hier ist das Verzeichnis www.parship.de/themen/ stark betroffen, während die Verzeichnisse www.parship.de
    /leistungen/ und gay.parship.de/themen/ sogar an Sichtbarkeit zulegen konnten.

    Sichtbarkeitsindex Verzeichnisse parship.de

    Sichtbarkeitsindex Verzeichnisse parship.de

    Die domainweite Bewertung durch Google scheint also nicht primär die Ursache für die sinkende Sichtbarkeit der beiden Domains zu sein. Vielmehr sollten wir die Ursachen in den konkreten Verzeichnissen suchen. Schaut man sich die Keywords an, zu denen die Verzeichnisse Rankings erzielen, sieht man recht deutlich, dass es sich um sehr umkämpfte Keywords handelt.

    Gerade bei solchen kompetitiven Keywords lohnt es sich immer einen Blick auf die Backlinks zu werfen. Dieses machen wir aufgrund unserer ersten Analyse nicht für die gesamte Domain, sondern gezielt für die betroffenen Verzeichnisse.

    Für www.bergfreunde.de/marken/ liefert die Toolbox folgende Daten als häufigste Linktexte.

    Linktexte Verzeichnis www.bergfreunde.de/marken/

    Häufigste Linktexte Verzeichnis www.bergfreunde.de/marken/

    Es ist nicht ausgeschlossen, dass Google mit diesem Mix von Linktexten ein Problem hat. Unter den häufigsten Linktexten findet man zu hohen Anteilen Moneykeywords, mit denen eine Website normalerweise eher selten verlinkt wird. An dieser Stelle vermisst man Linktexte mit dem Markennamen, Domainnamen bzw. URLs oder Texten wie „hier“, die das Linkprofil wesentlich natürlicher erscheinen ließen.

    Das gleiche Bild zeigt sich bei dem Verzeichnis www.parship.de/themen/. Auch hier findet man sehr viele Moneykeywords und der Mix der Linktexte wirkt nicht unbedingt organisch.

    Häufigste Linktexte Verzeichnis www.parship.de/themen/

    Häufigste Linktexte Verzeichnis www.parship.de/themen/

    Eine mögliche Theorie zur Erklärung der Rückgänge im Sichtbarkeitsindex wäre damit gefunden. Eventuell sollte man nicht nur für die gesamte Domain auf ein natürliches Linkprofil achten, sondern auch gezielt bei einzelnen Verzeichnissen. Wann ein Linkprofil unnatürlich wirkt, habe ich vor einigen Wochen in einem Video „Wie prüft man, ob eine Website vom Google Penguin Update 2.0 betroffen ist?“ verdeutlicht.

    Matt Cutts hat das Google Penguin Update 2.0 als „more comprehensive” und “deeper targeting” bezeichnet. Eventuell sehen wir bei den beiden Domains eine neue Iteration vom Penguin 2.0, bei dem stärker auch einzelne Verzeichnisse bewertet werden. Ebenso gut könnte es sich aber auch um eine manuelle Maßnahme von Google handeln oder es wurden weitere Linknetzwerke aufgedeckt. Backlinks als grundsätzliche Ursache für den Sichtbarkeitsverlust dieser beiden Domains in Betracht zu ziehen, scheint nach einem ersten Blick auf die Daten durchaus plausibel.

    Wie eingangs erläutert, kann eine solche Aussage ohne ein offizielles Statement von Google und auf Grundlage von nur zwei Domains maximal eine von mehreren möglichen Theorie sein. Als verantwortlicher SEO sollte man weitere Theorien aufstellen und nach Analyse aller Daten und Fakten entscheiden, mit welchen Maßnahmen man die Website „behandeln“ möchte, um die Rankings „gesunden“ zu lassen. Erscheinen mehrere Theorien plausibel, ist es oftmals für eine schnelle Heilung nicht verkehrt, die Website auch gleichzeitig auch auf mehrere infrage kommende Ursachen zu behandeln.

    The post Fallstudie: Linkprofil von einzelnen Verzeichnissen beachten appeared first on SISTRIX.

    SISTRIX

  • Tag Archives: Fallstudie

  • Fallstudie Soft 404-Fehler

    September 16, 2013 7:29 pm - Posted by admin Category:SEO + SEM

    Die letzte Fallstudie liegt etwas zurück, doch diese Woche wollen wir wieder einen kurzen Blick auf einen der Verlierer der KW 38/13 im SISTRIX Sichtbarkeitsindex werfen, um anhand eines Beispiels aus der Praxis zu zeigen, wie man in wenigen Minuten die Ursache herausfinden kann.

    Die Domain ran.de hat 63% im Sichtbarkeitsindex verloren, indem sie von 2,57 Punkten auf 0,96 Punkte gefallen ist.

    Sichtbarkeitsverlust der Domain ran.de vom 09.09.13 auf den 16.09.13

    Sichtbarkeitsverlust der Domain ran.de vom 09.09.13 auf den 16.09.13

    Das Chart mit dem Sichtbarkeitsindex zeigt die gesamte Entwicklung des Sportportals ran.de, welches zur ProSieben Sat.1 Sendergruppe gehört.

    Um die Ursache des Absturzes herauszufinden, ist ein Blick auf die am stärksten rankenden Verzeichnisse der Domain oft sehr zielführend. In der neuen Version der SISTRIX Toolbox, welche sich derzeit im Beta-Test befindet und aller Voraussicht nach im Oktober allen Nutzern zur Verfügung steht, ist diese Analyse mit einem Klick zu erreichen.

    Verzeichnisse mit der größten Sichtbarkeit von ran.de

    Verzeichnisse mit der größten Sichtbarkeit von ran.de

    Das Chart mit dem Sichtbarkeitsindex der Top-3 Verzeichnisse zeigt deutlich auf, wo die Ursache zu finden ist.

    Das Verzeichnis www.ran.de/de/, welches einst die größte Sichtbarkeit für die Domain generierte, ist massiv eingebrochen. Dies legt die Vermutung nahe, dass das Verzeichnis nicht mehr existiert oder Google beim crawlen der Inhalte ein Problem hat.

    Ein Blick auf die Ranking-Veränderungen zeigt, dass maßgeblich Keywörter von einem Ranking-Verlust betroffen sind, welche zuvor für Inhalte aus dem Verzeichnis www.ran.de/de/ eine Top-Platzierung in den Suchergebnissen erzielten.

    Ranking-Veränderungen der Domain ran.de. Auffällig ist das Verzeichnis www.ran.de/de/

    Ranking-Veränderungen der Domain ran.de. Auffällig ist das Verzeichnis www.ran.de/de/

    Offenbar hat man sich dazu entschlossen das Verzeichnis www.ran.de/de/ fortan nicht mehr weiterzuführen und hat die entsprechenden Inhalte auf der Seite neu untergeordnet. Der Ranking-Verlust ist dadurch zu erklären, dass eine Vielzahl von Inhalten nicht korrekt auf die jeweils neue URL-Struktur weitergeleitet werden, sondern teils auf die Startseite www.ran.de verweisen.

    Beispiel: Die Domain ran.de rankte vergangene Woche mit dem Keywort [boxen termine] auf #6 und der URL www.ran.de/de/boxen/Index.html in den Suchergebnissen. Ruft man diese URL nun auf, wird man auf die Startseite ran.de weitergeleitet. Aus Sicht von Google handelt es sich hierbei um einen sogenannten Soft 404-Fehler.

    Per Definition bedeutet ein Soft 404-Fehler, dass “der Content der Seite in keinem Zusammenhang zu dem vom Server gesendeten HTTP-Antwortcode steht”. In dem vorliegenden Fall wird die URL www.ran.de/de/boxen/Index.html korrekt per 301-Weiterleitung auf die Startseite www.ran.de umgeleitet. Jedoch wird dies von Google wie ein Soft 404-Fehler behandelt, da der User auf der Startseite keine nützlichen Informationen seiner Suchanfrage betreffend vorfindet.

    Um gute Rankingposition im Zuge eines Relaunches oder bei Veränderung der URL-Struktur nicht zu gefährden ist es daher ratsam, immer auf eine für den User nützliche Weiterleitung der Inhalte zu achten.

    Im Zuge unserer Analyse bemerkten wir, dass anscheinend an dem Problem gearbeitet wird, da nach und nach die Inhalte gemäß der neuen URL-Struktur weitergeleitet werden.

    Bsp. http://www.ran.de/de/fussball/bundesliga/tabelle.html verweist anstatt auf die Startseite nun auf http://www.ran.de/datenbank/fussball/bundesliga/ergebnisse-und-tabelle.

    Sofern die verantwortlichen Kollegen bei ran.de dies konsequent so weiterführen, besteht die Möglichkeit, dass die verlorenen Rankings kommende Woche wieder vorhanden sind.

    Zu guter letzt möchte ich noch einen interessanten Punkt mit euch teilen. Mir ist aufgefallen, dass die Domain ran.de auch für den österreichischen und schweizerischen Suchmarkt rankt.

    ran.de rankt auch mit seinen Inhalten bei Google.at und Google.ch

    ran.de rankt auch mit seinen Inhalten bei Google.at und Google.ch

    Dies macht durchaus Sinn, da in beiden Suchmärkten auch teilweise deutsch gesprochen wird. Verwundert war ich jedoch, als ich im Quellcode von ran.de das hreflang Link-Attribut Markup mit folgendem Inhalt fand:

    • <link rel=”alternate” hreflang=”de-AT” href=”http://www.ran.at” >
    • <link rel=”alternate” hreflang=”de-CH” href=”http://www.ran.ch” >

    Ruft man beide Domains auf, so wird man feststellen, dass ran.at nicht existiert und ran.ch nicht ganz nach einem Sportportal aussieht.

    The post Fallstudie Soft 404-Fehler appeared first on SISTRIX.

    SISTRIX

  • Tag Archives: Fallstudie

  • Fallstudie duden.de: Erfolg ohne gefährliche SEO-Tricks

    Mai 22, 2013 1:31 am - Posted by admin Category:SEO + SEM

    Nachdem wir in den letzten Wochen mehrere Verlierer (apple.com, stuttgart.de, sportschau.de) im SISTRIX Sichtbarkeitsindex näher beleuchtet haben, wollen wir uns heute auch mal mit einem positiven Beispiel beschäftigen. Seit Monaten ist immer wieder die Domain duden.de auf der Gewinnerseite der wöchentlichen Movers & Shakers zu finden. Wie die folgende Grafik zeigt, ist alleine seit Jahresanfang der Sichtbarkeitsindex von 140 Punkte auf inzwischen 219 Punkte (+92 Prozent) gestiegen. Bei dieser Entwicklung könnte sogar ein zalando.de neidisch werden.

    Entwicklung SISTRIX Sichtbarkeitsindex duden.de

    Entwicklung SISTRIX Sichtbarkeitsindex duden.de

    Irgendetwas scheint die Domain richtig zu machen. Das wollen wir uns genauer anschauen.

    Wann hat der Aufwärtstrend von duden.de begonnen?

    Um die Ursache für den beeindruckenden Anstieg der Sichtbarkeit von duden.de bestimmen zu können, ist es zielführend, zuerst einmal den Zeitpunkt zu identifizieren, wann der Aufwärtstrend begonnen hat. Auf den ersten Blick ist dieser etwas schwer zu erkennen, da die starken Anstiege der vergangenen Monate die Anstiege in 2011 und 2012 zu winzigen Ausschlägen schrumpfen lassen. Um die Details besser zu erkennen, wähle ich in der Toolbox einfach mit gedrückter Maustaste einen Zeitraum vor 2013 aus und führe anschließend eine Trendanalyse durch. Ausführliche Informationen wie man Trendanalysen erstellt, kann man zusammen mit vielen Fallbeispiele in unserem kostenlosen E-Book „SEO-Analysen mit dem SISTRIX Sichtbarkeitsindex“ nachlesen.

    Trendanalyse Sichtbarkeitsindex duden.de

    Trendanalyse SISTRIX Sichtbarkeitsindex duden.de bis 23.05.2012

    In der Grafik sieht man deutlich, dass der Sichtbarkeitsindex von duden.de am 23.05.2011 aus dem seit 2008 andauernden Seitwärtskanal nach oben ausgebrochen ist. Kurz vor diesem Zeitpunkt lohnt es sich nach der Ursache zu forschen. Ich habe die Ursache in der Toolbox mit dem Ereignis-Pin A markiert und ihn auf das Datum 02.05.2011 gesetzt. Ihr werdet gleich sehen warum.

    Grundsätzlich ist ein Anstieg im Sichtbarkeitsindex möglich, wenn man zu einer größeren Anzahl Keywords Rankings erzielt, zu bestehenden Keywords bessere Rankings erreicht, oder im Idealfall in beide Richtungen erfolgreich ist. Ursachen sind oft eine verbesserte Informationsarchitektur der Website, neuer Content und/oder eine verbesserte Verlinkung.

    Bei einer Sichtung der Pressemitteilungen auf duden.de für den gesuchten Zeitraum Mai 2011 werde ich auch direkt fündig. Am 02.05.2011 (Ereignis-Pin A) hat das Unternehmen einen Relaunch bekanntgegeben. Und auch SPIEGEL Online hat darüber berichet. Zusammen mit dem Relaunch wurde die Paywall abgeschafft und die Internet-Nutzer können seither den Rechtschreib-Duden mit vielen Extra-Funktionen der Online-Version kostenlos nutzen.

    Mutiger Schritt hin zur Kostenloskultur

    Diesen für einen Verlag mutigen Schritt hin zur Kostenloskultur im Internet kommentiert Marion Winkenbach, verlegerische Geschäftsführerin des Dudenverlags, wie folgt:

    „Für unsere Markenpolitik ist es wichtig, dass wir auch online die Nummer eins sind in Sachen deutsche Sprache.”

    Der Dudenverlag hat offensichtlich erkannt, dass das mit einer Paywall nicht möglich ist, da im Netz andere und vor allen Dingen kostenlose Wörterbücher nur einen Klick entfernt sind. Auf Dauer hätte die Paywall trotz der starken Marke Duden die Nutzer immer mehr in die Hände der Wettbewerber getrieben und die Marke somit langfristig geschwächt.

    Wie sich dieser Strategiewechsel ausgewirkt hat, zeigt deutlich das Suchinteresse in Deutschland nach „Duden“ bei Google Trends.

    Entwicklung Suchinteresse Duden bei Google Trends

    Entwicklung Suchinteresse Duden bei Google Trends (Deutschland)

    Seit dem Relaunch steig das Suchinteresse kontinuierlich an. Die Nutzer suchen verstärkt gezielt nach der Marke Duden.

    Aber auch bei anderen wichtigen SEO-Kennzahlen macht sich der Relaunch stark bemerkbar. Die Anzahl indexierter Seiten steigen seither ebenso wie die Anzahl Keywords mit Rankings in den Top 100. Ebenso bei der wichtigen Kennzahl der verlinkenden Domains (Domain-Pop) ist ein stetiges Wachstum zu erkennen. Ein kostenloses Angebot wird nun einmal lieber und vor allen Dingen häufiger verlinkt als ein Angebot mit Bezahlschranke.

    Entwicklung der Anzahl auf duden.de verlinkende Domains (Domain-Pop)

    Entwicklung der Anzahl auf duden.de verlinkende Domains (Domain-Pop)

    Ebenfalls hat sich die Rankingverteilung nach dem Relaunch äußerst positiv entwickelt. Bei über 35 Prozent der vorhandenen Rankings ist duden.de inzwischen auf Seite 1 der Suchergebnisse zu finden.

    Rankingverteilung duden.de

    Vergleich der Rankingverteilung duden.de 20.05.2013 vs. 25.04.2011

    Praktisch alle SEO-Kennzahlen erzählen die gleiche Geschichte. Der steigende Sichtbarkeitsindex ist die logische Konsequenz aus dem Anstieg der einzelnen Werte.

    Das Erfolgsrezept von duden.de

    Den SEO-Erfolg von duden.de kann man insbesondere durch folgende vier Punkte beschreiben:

    1. kostenloser Content mit deutlichem Mehrwert für die Nutzer
    2. starke Marke mit steigendem Suchvolumen
    3. gute interne Verlinkung
    4. gute Usability und schnelle Seitenaufrufe durch Server-Cache für häufig aufgerufene Inhalte

    Der Erfolg von duden.de hat nichts mit geheimnisvollem SEO-Voodoo zu tun. Eine starke Marke hat einfach nur wertvolle Inhalte barrierefrei für Suchmaschinen und Nutzer von Suchmaschinen aufbereitet. Nicht mehr und nicht weniger.

    Auch wirtschaftlich ein Erfolg?

    Die Frage ist, ob der SEO-Erfolg auch einen wirtschaftlichen Erfolg für den Dudenverlag bedeutet. Schließlich besteht die Gefahr, dass die kostenlose Online-Version den Verkauf der gedruckten Bücher schmerzlich kannibalisiert.

    Man kann dem entgegenhalten, dass das Internet den Buchverkauf ohnehin kannibalisiert und der Dudenverlag in Wirklichkeit überhaupt keine Wahl hatte. Wenn es den Duden online nicht kostenlos gibt, dann wenden sich die Nutzer eben anderen Marken mit einem kostenlosen Angebot zu. Insofern ist es besser sich selbst zu kannibalisieren anstatt von andern Marken kannibalisiert zu werden. Das steigende Suchinteresse nach Duden bei Google Trends zeigt klar den positiven Einfluss nach dem Relaunch auf die Marke.

    Der Dudenverlag scheint aber auch insgesamt mit der Entwicklung zufrieden zu sein. Fünf Monate nach dem Relaunch sagte Marion Winkenbach:

    „Wir ziehen eine sehr positive Bilanz der ersten Monate. Die Neugestaltung der Website hat dazu geführt, dass wir in Suchmaschinen deutlich besser gerankt und unsere Inhalte besser gefunden werden. Der Traffic hat sich seit dem Start von duden.de verdoppelt, was sich erfreulicherweise auch in einem deutlichen Wachstum unserer Onlineverkäufe niederschlägt.“

    The post Fallstudie duden.de: Erfolg ohne gefährliche SEO-Tricks appeared first on SISTRIX.

    SISTRIX

  • Tag Archives: Fallstudie

  • Fallstudie: sportschau.de schießt ein Eigentor

    Mai 13, 2013 7:20 pm - Posted by admin Category:SEO + SEM

    Auch diese Woche wollen wir einen kurzen Blick auf einen der Verlierer der Woche im SISTRIX Sichtbarkeitsindex werfen, um anhand eines Beispiels aus der Praxis zu zeigen, wie man in wenigen Minuten die Ursache herausfinden kann.

    Diese Woche tritt die Domain sportschau.de an, die 41 Prozent im Sichtbarkeitsindex verloren hat, indem sie in der letzten Woche von 13,86 Punkte auf 8,11 Punkte gefallen ist. Sie hat damit den seit September 2012 bestehenden Aufwärtskanal verlassen.

    Sichtbarkeitsindex sportschau.de

    Die Domain sportschau.de hat in der letzten Woche den Aufwärtskanal verlassen und ist im Sichtbarkeitsindex um 41 Prozent eingebrochen.

    Das Chart mit dem Sichtbarkeitsindex zeigt eine relativ volatile Entwicklung in der Vergangenheit. Da es sich grundsätzlich um qualitativ hochwertige Inhalte handelt und die ARD sicherlich auch keine verbotenen Linkaufbau für sportschau.de betreibt, sollte Google die Domain eigentlich lieb haben. Die Schwankungen sind vermutlich hausgemacht.

    Um die Ursache für den jüngsten Absturz herauszufinden, ist es meist hilfreich, konkrete und deutliche Beispiele für verlorene Rankings zu betrachten. Diese findet man in der Toolbox am schnellsten mit einem Klick auf “Weggefallene Keywords”.

    Weggefallene Keywords sportschau.de

    Auszug aus der Liste weggefallener Keywords sportschau.de

    Die Tabelle zeigt uns, dass sportschau.de z.B. für die Keywords “fußball bundesliga tabelle”, “eishockey ergebnisse” und “handball bundesliga” von guten Plätzen in den Top 10 komplett aus den Top 100 gefallen ist. Das kann man nicht mehr durch “normale Schwankungen” bei Google erklären.

    Mit einem Klick auf das jeweilige Chartsymbol in der Tabelle kann man sich auch für jedes Keyword die historische Rankingentwicklung anzeigen lassen und mit einem Klick auf das Tabellensymbol das SERP-Archiv gelangt man zur aktuellen Top-100 und der Möglichkeit die Top-100 für alle vergangenen Wochen anzuschauen.

    Wenn wir das exemplarisch für das Keyword “fußball bundesliga tabelle” durchführen sehen wir, dass sportschau.de seit dem 24.12.2012 auf Platz 2 stand und seit dem 19.07.2010 immer in den Top-10 zu finden war. In der Vergangenheit war es also ein sehr stabiles Ranking.

    Rankingentwicklung der Domain sportschau.de für das Keyword “fußball bundesliga tabelle”

    Rankingentwicklung der Domain sportschau.de für das Keyword “fußball bundesliga tabelle”

    Über das Rankingarchiv finden wir auch heraus, mit welcher URL sportschau.de letzte Woche (06.05.2013) Platz 2 belegte. Es handelt sich um die URL:

    www.sportschau.de/fussball/bundesliga/spieltag/

    Ein Besuch der Seite verrät und dann auch gleich die Ursache für das verlorene Ranking. Die Seite wurde, warum auch immer, auf NoIndex und NoFollow gesetzt. Die Meta-Elemente Robots überprüfe ich beim Surfen immer gerne mit einem kleinen, aber sehr nützlichem Browser-Plugin namens “SeeRobots” von Andre Alpar. SeeRobots überprüft automatisch die Meta-Elemente Robots und zeigt direkt die rote Karte für diese URL an.

    Rote Karte von SeeRobots

    SeeRobots zeigt NoIndex und NoFollow für die URL an.

    Eine Überprüfung von sportschau.de mit dem SISTRIX Optimizer zeigt neben etlichen anderen Problemen an, dass von 10.000 gecrawlten Seiten 55 URLs nicht indexierbar sind. Die absolute Anzahl ist nicht sehr hoch, allerdings handelt es sich dabei durch die Bank um Seiten, die sehr gute Rankings besaßen. Warum ausgerechnet diese Seiten jetzt auf NoIndex gesetzt wurden, weiß sicherlich nur die ARD. Aus SEO-Sicht handelt es sich um ein klassisches Eigentor, das zum Verlust der durch die Fernsehzuschauer gebührenfinanzierten Rankings führt.

    The post Fallstudie: sportschau.de schießt ein Eigentor appeared first on SISTRIX.

    SISTRIX

  • Tag Archives: Fallstudie

  • Fallstudie: Warum stürzt stuttgart.de bei Google ab?

    Mai 7, 2013 1:07 am - Posted by admin Category:SEO + SEM

    Das Stadtportal stuttgart.de gehört mit einem Rückgang von 65 Prozent zu den fünf Verlierern der Woche im SISTRIX Sichtbarkeitsindex. Schon in der Vorwoche war die Sichtbarkeit stark eingebrochen und seit dem 15.04.2013 ist der Sichtbarkeitsindex von 14,95 Punkte auf 2,79 Punkte (-81 Prozent) gefallen. Was ist los im Ländle?

    SISTRIX Sichtbarkeitsindex stuttgart.de

    Entwicklung SISTRIX Sichtbarkeitsindex stuttgart.de

    Für ein offizielles und gut verlinktes Stadtportal mit exklusivem Content ist ein solcher Einbruch ungewöhnlich. Eine Google Penalty würde man daher nicht zu allererst als Ursache vermuten. Ein Blick auf die weggefallenen Keywords der letzten Woche zeigt, dass ein größeres Problem vorliegen muss, wenn stuttgart.de für Keywords wie z.B. “museum stuttgart”, “theater stuttgart” und “schule stuttgart” von Platz 1 komplett aus den Top-100 fällt.

    Weggefallene Keywords stuttgart.de

    Auszug aus der Liste der Keywords, bei denen stuttgart.de in der vergangenen Woche aus den Top-100 gefallen ist

    Um die Website zu überprüfen, haben wir stuttgart.de daher mit dem SISTRIX Optimizer überprüft und 10.000 Seiten crawlen lassen. Bei der Optimizer-Auswertung fällt sofort die hohe Anzahl von 519 Serverfehler auf.

    Auszug SISTRIX Optimizer Analyse stuttgart.de

    Auszug SISTRIX Optimizer Analyse stuttgart.de

    In der Detailansicht sehen wir, dass der Server sehr häufig den HTTP-Status-Code 503 (Service Unavailable) ausliefert. Ruft man eine einzelne dieser Seiten manuell auf, ist dieses Problem hingegen nicht zu beobachten. Dieses Verhalten des Servers scheint nur beim Crawlen einer größeren Anzahl Seiten aufzutreten. Es ist zu vermuten, dass auch der Googlebot auf die gleichen Probleme stößt. Das wäre auch eine plausible Erklärung dafür, warum stuttgart.de für seine ureigensten Keywords komplett aus den Rankings verschwindet.

    Serverfehler stuttgart.de

    Auszug aus der Liste der Serverfehler von stuttgart.de

    Suboptimal ist sicherlich auch die Tatsache, dass man alle URLs sowohl mit http als auch mit https aufrufen kann und dass viele URLs zu viele Parameter beinhalten. Diese SEO-Schwächen liegen aber wahrscheinlich schon länger vor und dürften für den aktuellen Absturz nicht verantwortlich sein.

    In der robots.txt von stuttgart.de wird eine lange Liste von Crawlern ausgeschlossen. Das bestätigt die Vermutung, dass die sparsamen Schwaben eventuell auch mit den 503-Statuscodes datenhungrige Crawler sperren wollen, dabei aber nicht die Auswirkungen auf die Google-Rankings beachtet haben.

    Damit hätten wir einen ähnlichen Fall wie bei apple.com vor ein paar Wochen mit dem einzigen Unterschied, dass der Server dort bei intensivem Crawling 403- anstatt 503-Statuscodes ausgeliefert hat. Die Domain apple.com hat sich übrigens inzwischen wieder gut erholt und kratzt aktuell an der 200-Punkte-Linie im Sichtbarkeitsindex.

    The post Fallstudie: Warum stürzt stuttgart.de bei Google ab? appeared first on SISTRIX.

    SISTRIX

  • Tag Archives: Fallstudie

  • Fallstudie: Der kranke Netdoktor

    Dezember 3, 2012 1:07 pm - Posted by admin Category:SEO + SEM

    Ich bin derzeit damit beschäftigt ein kleines Büchlein über SEO-Analysen mit dem SISTRIX Sichtbarkeitsindex zu schreiben, das wir hier in den nächsten Wochen kostenlos als Download anbieten werden. Darin sollen typische Muster im Sichtbarkeitsindex und deren Ursachen anhand von Fallstudien erörtert werden.

    Zusätzlich möchte ich ein neues SEO-Analyse-Werkzeug vorstellen, die technische Chartanalyse. Hierzu soll an dieser Stelle aber noch nicht zu viel verraten werden, lasst Euch einfach überraschen. Trotzdem soll es aber schon einmal einen kleinen Vorschau in Form einer Leseprobe geben. Dafür wurde die Fallstudie Netdoktor als Beispiel für einen Abwärtstrend im Sichtbarkeitsindex ausgewählt.

    Die Domain bewegte sich seit August 2010 über einen Zeitraum von 2 Jahren in einem relativ engem Seitwärtskanal im Sichtbarkeitsindex. Am 15.8.2011 zeigt sich im Sich…
    Suchmaschinen- und SEO-Blog – SISTRIX GmbH