• E-commerce Solution

    Umsatz machen… … 24 Stunden am Tag, 365 Tage im Jahr. Die Anzahl der sogenannten Webshops oder eShops auf dem Marktplatz Internet steigt täglich an.

    Read More
  • Link Building

    Während bei der Onpage- oder Onsite-Optimierung einer Webseite vornehmlich die Struktur und der Inhalt optimiert werden, fokussiert man beim Linkaufbau in erster Linie das Umfeld der betreffenden Webseite. Beim Linkaufbau versucht man die Anzahl der auf die eigene Webseite verweisenden …

    Read More
  • Content Management

    Open Source Software aus Überzeugung Ein Tätigkeitsschwerpunkt von hauptsache.net ist die Entwicklung von Lösungen unter Verwendung von Open Source Software.

    Read More
  • Web Development

    Comming soon!

    Read More
  • SEO Consulting

    Wie „denken“ Suchmaschinen? Suchmaschinen arbeiten auf unterschiedliche Art und Weise. 

    Read More

    Monthly Archives: August 2014

  • Google Panda Update und User-generated content

    August 19, 2014 1:08 pm - Posted by admin Category:SEO + SEM

    In den letzen Jahren waren Websites mit User-generated content wie Foren und Frage-und-Antwort-Portale häufig vom Google Panda Update betroffen. User-generated content besitzt nicht grundsätzlich eine schlechte Qualität. Aber ohne redaktionelle Pflege entsteht oft ein Wildwuchs, welcher die Qualität herunterzieht.

    Die Google Nutzer bevorzugen oft einen gut recherchierten und hochwertig geschriebenen Fachartikel anstelle von Community-Inhalten, bei denen gerne zehn Personen zwölf verschiedene Meinungen vertreten, so dass der Nutzer noch dem Lesen der Lektüre noch mehr verwirrt ist als vorher.

    Problematisch sind sicherlich auch Spam-Beiträge aus der Community und eine Vielzahl sehr ähnlicher Posts zu dem gleichen Thema, die sich sich inhaltlich überschneiden und gegenseitig kannibalisieren. Das sind nur einige Beispiele, warum User-generated content oftmals keine besonders hohe Qualität besitzt.

    Besonders tragisch ist die Situation, wenn eine Website qualitativ wertvollen Content z.B. in Form von Fachartikeln besitzt und gleichzeitig einen wild wuchernden Bereich mit User-generated content auf der Domain vorhanden ist. Es kommt vor, dass der Panda Algorithmus dann die gesamte Website herabstuft und auch die Seiten mit dem hochwertigen Content plötzlich Rankings verlieren.

    Einen solchen Fall hatten wir 2012 mit der Fallstudie zu netdoktor.de beschrieben (SEO-Analysen mit dem SISTRIX Sichtbarkeitsindex Seite 59 ff.). Als Lösung haben wir vorgeschlagen, dass netdoktor.de die Community-Inhalte deindexieren kann, oder sie auf eine zweite Domain auszulagert. Die zweite Domain könnte die Funktion einer „Bad Bank“ für schlechte Nutzersignale übernehmen (S. 72).

    Diese Lösungsmöglichkeiten hat jetzt auch John Mueller im Google Webmaster Hangout bestätigt. Ihr findet seine Antwort im Video ab Minute 11:36 bis Minute 16:05.

    John empfiehlt ein für die Website passendes System zu finden, um User-generated content mit geringem Mehrwert auszufiltern und auf NoIndex zu stellen. Sollte das aus irgendwelchen Gründen nicht möglich sein, sollte der User-generated content auf eine andere Domain ausgelagert werden, um die Website vor dem Panda Algorithmus zu schützen. Eine Auslagerung auf eine Sub-Domain ist nicht ausreichend, um einen sicheren Schutz zu ge­währ­leis­ten.

    The post Google Panda Update und User-generated content appeared first on SISTRIX.

    SISTRIX

  • Monthly Archives: August 2014

  • Google straft ein weiteres deutsches und europäisches Linknetzwerk ab

    August 18, 2014 7:09 pm - Posted by admin Category:SEO + SEM

    Am Wochenende tauchten bei Facebook zahlreiche Beiträge auf, dass aktuell viele Websites Benachrichtigungen über die Google Webmaster Tools (GWT) wegen Linkkauf und Linkverkauf erhalten haben.

    Heute bestätigt Johannes Mehlem, Quality Rater bei Google, dass Maßnahmen gegen ein europäisches sowie ein deutsches Linknetzwerk eingeleitet wurden.

    Abstrafung Linknetzwerke

    Aufgrund der Menge an Beiträgen bei Facebook wäre es nicht überraschend, wenn es sich um große Linknetzwerke handelt.

    The post Google straft ein weiteres deutsches und europäisches Linknetzwerk ab appeared first on SISTRIX.

    SISTRIX

  • Monthly Archives: August 2014

  • Auswirkung negativer Nutzersignale auf das Google Ranking

    August 13, 2014 1:44 pm - Posted by admin Category:SEO + SEM

    Die Startseite der Domain hotel-bonn.de bietet ein sehr schönes Beispiel dafür, welchen Einfluss Nutzersignale auf das Google-Ranking zu einem bestimmten Keyword haben können.

    Bei der Domain handelt es sich um eine uralte Exact-Match Domain für das Keyword “hotel bonn“. Die beiden Wörter “Hotel“ und “Bonn“ kommen auf der Startseite vor und sind ebenfalls in einigen externe Backlinks enthalten. Für Google gibt es also deutliche Rankingsignale die Website hotel-bonn.de für das Keyword “hotel bonn” relativ weit oben als Treffer anzuzeigen.

    Schauen wir uns den Rankingverlauf der Domain für das Keyword an, so sehen wir ein stetiges Auf und Ab.

    Rankingverlauf hotel-bonn.de zu dem Keyword "hotel bonn"

    In gewissen Abständen ist die Domain für wenige Wochen in den Top 10 zu finden und verschwindet dann wieder für einen längeren Zeitraum von der ersten Suchergebnisseite. Zeitweise schafft sie es bis auf Platz 2 für die attraktive und umkämpfte Suchphrase “hotel bonn“.

    Hotel BonnDas Problem ist, dass es bei der Website nicht um ein Hotel in der wunderschönen Bundesstadt Bonn geht, wie man eigentlich vermuten könnte. Vielmehr handelt es sich um die Seite eines Hotels in Baunatal am Stadtrand von Kassel. Es wird von einer Familie mit dem Nachnamen Bonn betrieben und heißt deshalb “Landgasthaus Hotel Bonn”.

    Der überwiegende Teil der Google-Nutzer dürfte bei der Suche nach „hotel bonn“ ein Hotel in der Stadt Bonn suchen (User Intent). Ein Hotel 2,5 Stunden Fahrzeit von Bonn entfernt am Stadtrand von Kassel ist für die meisten Nutzer daher kein besonders guter Treffer für ihre durchgeführte Suche.

    Treffer Hotel BonnViele Suchende werden erst gar nicht auf den Treffer klicken, weil sie im Snippet des Treffers bereits “Hotel und Landgasthaus am Stadtrand von Kassel“ gelesen haben. Ein weiterer Teil klickt ihn an, kehrt aber im Vergleich zu den anderen Treffern überdurchschnittlich oft zu Google zurück, um ein anderes Ergebnis auszuwählen (hohe Return-to-SERP-Rate).

    Als Ergebnis kann man dem Google Algorithmus bei der Arbeit zuschauen. Aufgrund der vorhandenen positiven Rankingsignale testet Google den Treffer von hotel-bonn.de alle paar Monate in den Top 10 zu dem Keyword “hotel bonn“. Bei den Nutzern fällt der Treffer jedoch durch, so dass Google in für einige Zeit aus den Top 10 wieder entfernt.

    Entsprechend volatil ist dann auch die Entwicklung des Sichtbarkeitsindex der Domain hotel-bonn.de

    Sichtbarkeisindex hotel-bonn.de

    Gerade weil das Beispiel so simpel ist, zeigt es sehr anschaulich, vor welchen Problemen Google und Websitebetreiber stehen, wenn Rankingsignale und User Intent nicht übereinstimmen. Stark schwankende Rankings können ein Signal sein, dass eine Website einfach die falschen Signale an Google sendet.

    The post Auswirkung negativer Nutzersignale auf das Google Ranking appeared first on SISTRIX.

    SISTRIX

  • Monthly Archives: August 2014

  • Google ergänzt Webmaster Guidelines: Creating pages with little or no original content

    August 12, 2014 7:22 pm - Posted by admin Category:SEO + SEM

    Heute hat Google die englischsprachigen Webmaster Guidelines im Bereich Qualitätsrichtlinien um den Punkt “Creating pages with little or no original content“ ergänzt.

    Little or no original content

    In dem verlinkten Dokument wird beschrieben, dass Google gegen Domains vorgeht, welche viele Seiten ohne erkennbaren Mehrwert für die Nutzer erstellen.

    Als Beispiele werden genannt:

    • automatisch generierter Content
    • Doorway Pages
    • Content aus anderen Quellen wie Scraped Content oder Gastbeiträge mit geringer Qualität
    • Thin Affiliate Sites

    Dass Google gegen solche Seiten vorgeht, ist nicht neu. Jetzt werden in den Webmaster Guidelines aber mehrere explizite Beispiele zusammengefasst

    Zum großen Teil überschneiden sich die Beispiele mit den bereit existierenden Nennungen von “Automatically generated content“, “Doorway Pages”, “Scraped content” und “Participating in affiliate programs without adding sufficient value“.

    Wirklich neu scheint nur der Punkt “Gastbeiträge mit geringer Qualität” (low-quality guest blog posts) zu sein. Solche Beiträge werden gerne für den (nervigen und schlechten) Linkaufbau erstellt. Eventuell schafft Google mit der Ergänzung der Qualitätsrichtlinien jetzt eine Grundlage, um auch die einbindenden Domains zu bestrafen, welche diese Gastbeiträge veröffentlichen.

    In den deutschen Richtlinien für Webmaster ist der Punkt noch nicht enthalten, wird in den nächsten Tagen aber wahrscheinlich ergänzt.

    The post Google ergänzt Webmaster Guidelines: Creating pages with little or no original content appeared first on SISTRIX.

    SISTRIX

  • Monthly Archives: August 2014

  • SEO-Stammtisch in Bonn am 28.08.2014

    1:11 am - Posted by admin Category:SEO + SEM

    SEO-Stammtisch in Bonn am 28.08.2014

    Am Donnerstag, den 28.08.2014, findet als Warm-Up zu der bevorstehenden Messe dmexco und den in der letzten Jahreshälfte stattfinden SEO- und Online-Marketing-Konferenzen wieder ein SEO-Stammtisch in Bonn statt.

    Ab 19 Uhr erwartet Dich eine lockere und gemütliche Runde von ca. 50 Leuten, die sich bei Speisen und Getränken unkompliziert kennenlernen, austauschen und vernetzen.

    Einsteiger, Fortgeschrittene und “alte Hasen” sind gleichermaßen gern gesehen. Gemeinsam werden wir versuchen, unser solides SEO-Basiswissen zu gefährlichem SEO-Halbwissen zu veredeln.

    Wenn Du Lust und Zeit hast, kannst Du Dich einfach über dieses Formular kostenlos und unverbindlich anmelden.

    Ein paar Tage vor dem Stammtisch erhältst Du wie immer eine E-Mail mit allen Detail-Infos zum Stammtisch.

    Wir freuen uns auf Dich!

    The post SEO-Stammtisch in Bonn am 28.08.2014 appeared first on SISTRIX.

    SISTRIX

  • Monthly Archives: August 2014

  • Anteil von SSL-Treffern in Google-SERPs

    August 9, 2014 1:08 am - Posted by admin Category:SEO + SEM

    Im Zuge der Ankündigung von Google, künftig Inhalte mit SSL-Zertifikat zu bevorzugen, habe ich mir den zeitlichen Verlauf des Anteils von SSL-Treffern in den Google-SERPs für Deutschland angesehen. Im folgenden Chart ist sowohl der prozentuale Anteil an SSL-URLs in den Top-100 (blau) als auch der Anteil verschlüsselter URLS in den Top-10 (grün) seit Anfang 2011 zu aufgezeichnet:

    ssl-urls-de

    Schön zu sehen, dass es 2011 nahezu keine Entwicklung gab: der Anteil lag anfang des Jahres bei 0,42%, gegen Ende 2011 bei 0,51%. Erst 2012 hat der Trend zur Verschlüsselung eingesetzt, so dass gegen Ende 2012 bereits 1% aller Inhalte über SSL ausgeliefert wurden. Die Verbreitung hat seitdem an Geschwindigkeit zugelegt. Mittlerweile werden in Deutschland mehr als 4 Prozent aller Google-Treffer verschlüsselt ausgeliefert. Die stärkeren Schwankungen im Verlauf stammen übrigens von der nur teilweise geglückten Umstellung von Facebook und Twitter auf HTTPS. In den USA ist eine vergleichbare Entwicklung wie in Deutschland zu beobachten, dort ist die Verbreitung allerdings noch ein Stück höher und es werden mehr als 5% aller Inhalte über HTTPS zur Verfügung gestellt.

    Spannend wird nun die Verfolgung dieser Entwicklung: schafft Google es, durch einen eventuellen Ranking-Boost, dass deutlich mehr Webseitenbetreiber auf SSL umstellen? Ich werden mir in ein paar Monaten die aktuellen Zahlen ansehen und berichten.

    The post Anteil von SSL-Treffern in Google-SERPs appeared first on SISTRIX.

    SISTRIX

  • Monthly Archives: August 2014

  • Warum Google Inhalte mit SSL-Zertifikat bevorzugt (oder auch nicht)

    August 8, 2014 7:17 am - Posted by admin Category:SEO + SEM

    Google hat heute bekannt gegeben, dass die Nutzung eines SSL-Zertifikates ein Ranking-Faktor ist. Inhalte, die über eine verschlüsselte Verbindung (HTTPS) ausgeliefert werden, erhalten durch den Google Algorithmus einen kleinen Bonus gegenüber ihren nicht-verschlüsselten Wettbewerbern.

    In der SEO-Branche wurde bereits lange vermutet, dass die Verschlüsselung ein positives Signal für Google darstellt. Ähnlich wie bei der Nutzung von CDN-Anbietern wird der Aufwand für Einrichtung und Pflege eines SSL-Zertifikates in der Regel nur von Webseitenbetreibern unternommen, die auch entsprechend in hochwertige Inhalte investieren. Diese Korrelation hat Google (jetzt) auch erkannt und nutzt sie für die Sortierung der Ergebnisse.

    Doch wieso hat Google das heute durch den Blogbeitrag öffentlich gemacht? Außer einem Konjunkturprogramm für SSL-Anbieter, bringt dieser Schritt nur Nachteile für die Suchergebnisqualität: die Korrelation zwischen der SSL-Nutzung und guten Inhalten wird in kurzer Zeit deutlich abnehmen und sich vielleicht sogar umkehren („Wieso sollen wir einen 3-Sterne-Text kaufen, wie haben doch das SSL-Zertifikat“). Die öffentliche Bekanntmachung eines konkret benannten, positiven Rankingfaktors ist ein sehr ungewöhnlicher Schritt von Google und in meiner Erinnerung einmalig.

    Google scheint damit also noch andere Interessen zu verfolgen. Wer die Pressemeldungen um Google und Sicherheitsthemen in den letzten Monaten verfolgt hat, wird bemerkt haben, dass Google durch die Veröffentlichung des NSA-Skandals auf dem falschen Fuss erwischt wurde. Spannungen zwischen der NSA und Google werden munter öffentlich ausgetragen und Google unternimmt einige Anstrengungen, um das simple Mitschneiden von Internet-Verkehr zu vermeiden. Vor einigen Tagen hat Google erst bekannt gegeben, nun auch internen (!) GMail-Traffic zu verschlüsseln, sehr gute Sicherheitsexperten kümmern sich um allgemeine Internet-Software und jetzt sorgt Google dafür, dass vermutlich bald ein sehr großer Teil des relevanten Internet-Verkehrs verschlüsselt abläuft.

    Da heute von der BBC über die Bild bis zu den Fachmedien vermutlich jeder über das Thema berichtet hat, dürften sich spätestens morgen alle Agenturen und Inhouse-SEOs mit der Umstellung auf SSL beschäftigen. Gute Gründe dagegen gibt es nun nicht mehr. Bleibt die Frage: gibt es dieses Ranking-Plus für SSL nun wirklich? Wen interessiert’s …

    The post Warum Google Inhalte mit SSL-Zertifikat bevorzugt (oder auch nicht) appeared first on SISTRIX.

    SISTRIX

  • Monthly Archives: August 2014

  • Bewertet Google Links mit den Daten vom Chrome Browser?

    August 6, 2014 7:29 pm - Posted by admin Category:SEO + SEM

    Bewertung LinksAm 14. Februar 2012 wurde das Google Patent “Ranking documents based on user behavior and/or feature data” veröffentlicht.

    Vereinfacht ausgedrückt handelt die Patentschrift davon, dass Links anhand des Nutzerverhaltens bewertet und gewichtet werden. Ein Link, der häufig von Nutzern geklickt wird, erhält mehr Gewicht als ein Link, der selten geklickt wird.

    Das Patent stellt eine wichtige Weiterentwicklung des ursprünglichen PageRank-Algorithmus dar, der jeden Link auf einer Seite unabhängig vom tatsächlichen Klickverhalten noch gleich stark gewichtet hat. Aber wie kann man sich die Bewertung von Links aufgrund des Nutzerverhaltens konkret vorstellen und welche Daten kann Google dafür verwenden?

    Auswertung des Nutzerverhaltens zur Bekämpfung von Link-Spam

    Denkt man ein wenig über die Gewichtung von Links anhand des tatsächlichen Klickverhaltens nach, so ist das von Google eine sehr clevere Lösung, dem künstlichen Linkaufbau zur Manipulation der Suchergebnisse etwas entgegenzusetzen.

    Gekaufte Links und Spamlinks werden tendenziell eher auf einer Seite versteckt. Sie stehen im Footer, in speziellen Boxen am Seitenrand oder sind sogar komplett unsichtbar gemacht worden. Doch wenn die Nutzer die Links kaum sehen und die Links auch in vielen Fällen nicht themenrelevant sind, werden sie diese Links auch nicht klicken. Entsprechend gering werden die Links dann nach den Ideen des Patents gewichtet.

    Wenn gekaufte Links nicht versteckt werden, handelt es sich oft um künstliche Websites, die nur für den Linkverkauf erstellt wurden (z.B. Blogs auf Basis von Expired Domains). Wenn es dort keine echten Nutzer gibt, können diese auch keine verkauften Links klicken. Die dort verkauften Links sind dann praktisch wertlos.

    Wie kann Google das Nutzerverhalten zur Beurteilung von Links messen?

    Die große Frage ist, welche Daten Google für die Gewichtung von Links verwendet. Wie kann Google messen, welcher Link wie häufig von Nutzern einer Website geklickt wird? Im SEO-Bereich werden immer wieder zwei Google-Angebote als mögliche Daten-Quellen genannt. Zum einen Google Analytics und zum anderen der Google Chrome Browser.

    Persönlich glaube ich aus zwei Gründen nicht, dass Google zu diesem Zweck die Daten von Google Analytics verwendet. Zum einen betont Google immer wieder, dass sie für einen solchen Zweck keine Analytics-Daten verwenden. Sollte das nicht der Wahrheit entsprechen, käme es irgendwann heraus. Warum sollten Google hier ohne Not seine Glaubwürdigkeit aufs Spiel setzen?

    Der zweite Grund ist vielleicht noch wichtiger. Die Analytics-Daten sind nicht besonders gut geeignet, um das Klickverhalten von Links auf allen Domains zu messen. Nur ein gewisser Prozentsatz der Websites hat Google Analytics integriert. Laut builtwith.com nutzen aktuell 55,7 Prozent der Quantcast Top Million Websites Google Analytics. Zu diesen Websits hat Google alle Daten, zu den restlichen 44,3 Prozent jedoch überhaupt keine Daten. Das ist eine ungünstige Verteilung. Nimmt man die gesamte Stichprobe von builtwith.com mit aktuell über 289 Millionen Domains, dann haben sogar nur 9,2 Prozent Google Analytics integriert. Auf Basis von Analytics-Daten wäre das System mehr als nur halb blind. Durch den Verzicht auf Google Analytics könnte jede Website, die Links verkaufen möchte, das System ganz einfach austricksen und in den Stealth-Modus gehen.

    Google Chrome Browser

    Viel besser wären die Daten geeignet, die Google über den Chrome Browser gewinnen kann. Weltweit hat der Chrome Browser nach Zahlen von StatCounter bei Desktop-Computern inzwischen einen Marktanteil von rund 50 Prozent.

    Marktanteile Desktop-Browser weltweit

    Deutschland ist eines der wenigen Länder auf der Welt, in denen der Chrome Browser noch nicht zum Marktführer geworden ist. Aber auch hierzulande liegt der Desktop-Marktanteil schon bei 28 Prozent. Nur der Firefox-Browser wird in Deutschland häufiger genutzt.

    Nutzung Browser weltweit August 2014

    Mit dieser breiten Datenbasis könnte Google die tatsächliche Nutzung von praktisch jeder Website sehr präzise messen. Ebenso lassen sich die Besucherströme über Verlinkungen zwischen verschiedenen Websites ermitteln.

    Mir fällt keine Datenquelle ein, mit denen man Links anhand des Nutzerverhaltens besser bewerten könnte. Keine Website kann sich vor den Chrome-Nutzern verstecken.

    Aber übermittelt der Chrome Browser tatsächlich Daten an Google, welcher Link wie häufig geklickt wurde?

    Chrome versucht zu erraten, welcher Link wie oft geklickt wird

    Die Frage lässt sich sehr leicht beantworten. In den erweiterten Chrome-Einstellungen (Einstellungen > Erweiterte Einstellungen anzeigen) findet man im Bereich Datenschutz eine Funktion, die sich „Netzwerkaktionen voraussehen, um die Ladegeschwindigkeit zu verbessern“ nennt. Diese Funktion ist standardmäßig bei allen Nutzern aktiviert. Nur ein kleiner Prozentsatz dürfte sie deaktiviert haben.

    Google Chrome Funktion Netzweraktionen voraussehen

    Die erweiterte Einstellung “Netzwerkaktionen voraussehen, um die Ladegeschwindigkeit zu verbessern” ist standardmäßig im Google Chrome Browser aktiviert.

    Worum geht es bei dieser Funktion? Wenn ein Nutzer mit dem Chrome Browser eine URL aufruft, analysiert Google die Links auf der Seite und versucht zu erraten, welchen Link der Nutzer als nächstes anklicken wird. Die Zielseiten mit den höchsten Wahrscheinlichkeiten werden dann im Hintergrund bereits geladen. Klickt der Nutzer tatsächlich auf einen dieser Links, ist die Seite bereits vorab geladen. Auf diese Weise ermöglicht der Chrome Browser ein sehr schnelles Surf-Erlebnis.

    Google beschreibt die Funktion in der Chrome-Hilfe wie folgt:

    Über diese Funktion: Browser verwenden zum Laden einer Webseite die IP-Adresse. Wenn Sie eine Webseite besuchen, kann Chrome die IP-Adressen aller Links auf der Website suchen und Links, auf die Sie vermutlich als Nächstes klicken werden, bereits vorab abrufen. Mithilfe der Pre-Rendering- und Vorabruf-Technologie können Websites Links, die Sie möglicherweise als Nächstes aufrufen, schneller laden.

    Mit anderen Worten bedeutet die Vorabruf-Technologie aber auch, dass Google bei jedem Seitenaufruf über den Chrome-Browser einen Algorithmus trainiert, der die Klickwahrscheinlichkeit von Links bewertet. Und das mit einem weltweiten Marktanteil von 50 Prozent bei den Desktop-Browsern. Wir sprechen hier also nicht nur von irgendeiner Stichprobe, sondern von einer “halben Vollerhebung” über praktisch alle Domains. Wer braucht da noch Analytics-Daten, die für einen großen Prozentsatz der Domains fehlen, zur Bewertung von Links?

    Fazit

    Die Vorabruf-Technologie bei Chrome ist die perfekte Ergänzung und der ideale Datenlieferant für das Patent „Ranking documents based on user behavior and/or feature data“.

    Sollte Google nach diesem Verfahren Links bewerten, dann ist ein Link für die Suchmaschinenoptimierung um so wertvoller, je häufiger er von echten Besuchern auch tatsächlich geklickt wird. Das ist bei echten Empfehlungen in Form von echten Links entsprechend stärker der Fall als bei den meisten unnatürlichen und gekauften Links.

    Natürlich wissen wir nicht, ob Google das Patent in dieser Form auch tatsächlich anwendet und ob für die Umsetzung die Chrome-Daten herangezogen werden. Bei den deutlichen Fortschritten, die Google in den letzen Jahren bei der Bekämpfung von Spam-Links gemacht hat, ist diese Erklärung aber mein persönlicher Favorit.

    Was denkt Ihr über die Funktion „Netzwerkaktionen voraussehen, um die Ladegeschwindigkeit zu verbessern“? Gibt es Gründe, warum Google diese wertvollen Daten nicht auch für seinen Ranking-Algorithmus nutzen würde?

    The post Bewertet Google Links mit den Daten vom Chrome Browser? appeared first on SISTRIX.

    SISTRIX

  • Monthly Archives: August 2014

  • IndexWatch 08/2014

    1:25 am - Posted by admin Category:SEO + SEM
    Gewinner Juli 2014
    # Domain Veränderung Daten
    1 jobs.de +585,15%
    2 chemie.de +457,76%
    3 fashionid.de +229,08%
    4 bodensee.de +132,93%
    5 lindenstrasse.de +130,12%
    6 pokerstars.eu +119,25%
    7 outlook.com +93,83%
    8 koelnerbranchen.de +87,83%
    9 drwindows.de +86,15%
    10 macuser.de +82,78%
    11 prospektangebote.de +79,64%
    12 internetworld.de +74,10%
    13 faq4mobiles.de +57,02%
    14 windows-7-forum.net +54,92%
    15 mlp.de +52,49%

    Der SISTRIX IndexWatch in der Ausgabe 08/2014 steht bereit.

    In unserem monatlichen IndexWatch betrachten wir die Veränderungen auf dem deutschen Suchmarkt, hier die des Monats Juli 2014. Wir haben für euch die Gewinner und Verlierer im SISTRIX Sichtbarkeitsindex analysiert.

    Starten wir mit den Gewinnern. Dies sind jene Domains, welche im Verlaufe des Monat Juli den größten Zuwachs im SISTRIX Sichtbarkeitsindex verzeichnen konnten.

    Interessante Weiterleitung von Jobs.de

    Mit einem satten Plus von 585% im SISTRIX Sichtbarkeitsindex ist die Domain Jobs.de der unangefochtene Gewinner im Juli. Wie kam es dazu?

    Jobs.de profitiert von der eingerichtet Weiterleitung bei JobScout24.de. Bedeutet: jobscout24.de leitet fortan auf jobs.de weiter.

    Vergleich im Sichtbarkeitsindex: Jobs.de gegen JobScout24.deAlle drei in der Grafik dargestellten Domains haben eine Geschichte. JobScout24 übernahm im Oktober 2004 die Domain Jobs.de und wandelte diese in eine Jobsuchmaschine um. Im September 2011 gab CarrerBuilder bekannt, JobScout24 zu akqurieren. Im Februar diesen Jahres gab man dann noch bekannt, dass JobScout24 die stärkste Marke unter den klassischen Jobbörsen sei. Aufgrund dieser Markenbekanntheit und der entsprechend guten SEO-Performance der Domain JobScout24, ist eine Weiterleitung auf die Domain Jobs.de doch eher verwunderlich. Wobei Jobs.de die natürlich schönere Domain darstellt.

    Ein offizielles Statement seitens CarriereBuilder konnte ich nicht ausfindig machen. Hier verrät Karsten Borgmann, Vice President Marketing and Product Management bei CarriereBuilder, dass jobs.de auf der wohl technologisch besseren Plattform von carrierebuilder.de existiere und man ein reines B2C Produkt schaffen wollte. Jobs.de soll künftig auf die Jobdatenbank von CarriereBuilder zurückgreifen und nur in Ausnahmefällen andere Quellen heranziehen.

    Aus SEO-Gesichtspunkten: Interessante oder fragwürdige Weiterleitung?

    Explosionsartiges Ranking des Lexikon bei Chemie.de

    Der Weg vom Uniprojekt zum Marktführer. Die CHEMIE.DE Information Service GmbH betreibt in erster Linie naturwissenschaftliche Online-Fachportale. So ist es ihrer Über uns-Seite zu entnehmen. 

    Sichtbarkeitsverlauf der Domain chemie.de

    Sichtbarkeitsverlauf der Domain chemie.de

    Der massive Anstieg in der Sichtbarkeit der Domain chemie.de ist auf das Lexikon-Verzeichnis zurückzuführen. Wenn Themen-Verzeichnisse, informative Kategorie-Seiten oder qualitativ hochwertige Lexika gut gemacht sind, kann eine Domain durch ein solches Verzeichnis oder Hostnamen deutlich an Sichtbarkeit gewinnen. Ein schönes Beispiel ist hier auch die Domain spektrum.de, welche wir im IndexWatch 04/2014 bereits analysierten.

    Die Rankings des Lexikon-Verzeichnis von chemie.de litten in im vergangenen Jahr eher einer Berg- und Talfahrt. Jetzt scheint Google nun die Inhalte gewaltig nach oben zu hieven. Ob dies allerdings ein dauerhafter Zustand ist, muss sich erst noch zeigen. Immerhin in der Selbstdarstellung ist man positiv gesinnt, denn so heißt es auch auf der Über uns-Seite: Der Grund für unseren Erfolg? Wir wissen, wovon wir reden!”.

    Relaunch von fashionid.de nicht im Griff oder Teil der SEO-Strategie?

    Diese Frage stelle ich mir, wenn ich den Zuwachs in der Sichtbarkeit der Domain fashionid.de und den (endlichen) Abfall bei peek-cloppenburg.de sehe.

    Entwicklung der Sichtbarkeit von fashionid.de und peek-cloppenburg.de im Vergleich

    Entwicklung der Sichtbarkeit von fashionid.de und peek-cloppenburg.de im Vergleich

    Bereits im Januar 2014 schrieb mein Kollege Hanns diesbezüglich: “Beim erstmaligen Besuch von peek-cloppenburg.de erhalten Nutzer ein Overlay, das einen zu einem Besuch des neu geschaffenen, aber bei Google nicht etablierten, Shops auf fashionid.de „zwingt“. Es ist praktisch unmöglich über die Startseite einen Inhalt von peek-cloppenburg.de zu erreichen. In Summe bedeutet das ein dickes Minusgeschäft in der Sichtbarkeit. Das hätte man unter Zuhilfenahme eines SEO-Experten deutlich eleganter und erfolgreicher lösen können.“.

    Im IndexWatch 02/2014 tauchte die Domain erneut auf. Die Domain peek-cloppenburg.de rankte weiterhin gut und immer besser, da klassische Produktdetailseiten weiterhin über Google auffindbar waren. Seit drei Wochen ranken nun überwiegend die Inhalte der Domain fashionid.de zu die entsprechenden Keywörtern.

    Exemplarischer Ranking-Verlauf zum Keyword [cord herrenhose]

    Exemplarischer Ranking-Verlauf zum Keyword [cord herrenhose]

    Hat man den Relaunch von peek-cloppenburg.de zu fashionid.de nicht im Griff oder ist dies ein gewollter Effekt einer ausgeklügelten SEO-Strategie?

    Website der schönsten Urlaubsregion in Deutschland wieder auffindbar

    Der Bodensee – die schönste Urlaubsregion in Deutschland, so heißt es auf der Domain bodensee.de, welche Ferienwohnungen direkt am Bodensee vermietet. Mit einem Plus von mehr als 130% im Sichtbarkeitsindex ist die Domain wieder auf dem Weg zurück zur alten Stärke.

    Entwicklung der Sichtbarkeit von bodensee.de

    Entwicklung der Sichtbarkeit von bodensee.de

    Der grüne Ereignis-PIN im Verlaufe der Sichtbarkeit der Domain deutet hier am 24.02.2014 nicht etwa auf ein  stattgefundenes Google Update hin, sondern sind meine Notizen zur Analyse des Abfalls im SISITRX Sichtbarkeitsindex. Notiert hatte ich mir folgendes:

    • Relaunch, 301-Weiterleitungen gesetzt
    • Verzeichnisse der zweiten Ebene wurden verworfen
    • .html-Seiten der dritten Ebene wurden zu Verzeichnissen auf zweiter Ebene

    Lag in den vergangenen sechs Monaten kein anderes Problem vor, so hat die Domain eine ganze Weile gebraucht, um den massiven Ranking-Verlust durch den Relaunch wieder in den Griff zu bekommen.


    Verlierer Juli 2014
    # Domain Veränderung Daten
    1 tjaereborg.de -52,93%
    2 peek-cloppenburg.de -47,31%
    3 tu-dresden.de -44,38%
    4 ladenzeile.de -30,76%
    5 olimar.de -28,44%
    6 fussball.de -27,60%
    7 toysrus.de -25,04%
    8 medion.com -24,75%
    9 verleihshop.de -24,71%
    10 fitreisen.de -23,79%
    11 werder.de -23,15%
    12 top10berlin.de -21,56%
    13 jako-o.de -20,78%
    14 panasonic.com -19,16%
    15 sskm.de -19,15%

    Kommen wir zu den Verlierern. Dies sind jene Domains, welche im Verlaufe des Monat Juli mit einer negativen Veränderung im SISTRIX Sichtbarkeitsindex zu kämpfen haben.

    Sie finden uns ab sofort unter dem Namen TRAVELIX

    Die Domain tjaereborg.de verlor über 50% ihrer Sichtbarkeit und begrüßt die Besucher mit einer Warnung einem Hinweis, dass man jetzt unter einem anderen Namen und Domain zu finden sei.

    tjaereborg wird zu TRAVELIX

    Thema Risiko Domainumzug und Rankings bei Google kommt mir da sofort in den Sinn. Fast vom Stuhl bin ich allerdings gefallen, als ich merkte, dass 301-Weiterleitungen scheinbar nicht gesetzt wurden und 404-Fehlerseiten den User wieder auf die Startseite von tjaereborg.de verweisen, wo dieser mit dem freundlichen Hinweis begrüßt wird, er möge doch bitte weitergehen.

    Relaunch von tjaereborg.de ohne 301-Weiterleitungen und mit nicht hilfreicher 404-Fehlerseite

    Relaunch von tjaereborg.de ohne 301-Weiterleitungen und mit nicht hilfreicher 404-Fehlerseite

    Mit dieser URL rankte man u.a. zu Keywörtern wie [billigflüge tjaereborg] auf der ersten Position. Die neue Domain travelix.de ist zu dieser Suchanfrage nun mit einer Hilfe-Seite “Zug zum Flug” auf der zweiten Suchergebnisseite zu finden.

    Die Domain travelix.de ersetzt ab sofort das Angebot von tjaereborg.de

    Die Domain travelix.de ersetzt ab sofort das Angebot von tjaereborg.de

    Ob sich diese Strategie für die neue Marke Travelix auszahlen wird? Werbefigur für den den neuen “dynamischen Veranstalter”, wie sie sich selbst beschreiben, ist übrigens der Comic-Superheld Mr. Travelix. :-)

    Die technische Universität Dresden und die robots.txt

    Scheinbar sperrt die TU-Dresden alle Crawler per robots.txt aus. Derzeit führt die Textdatei den Verweis:

    User-agent: *
    Disallow /

    Folglich kann Google keine Meta-Description in den Suchergebnissen anzeigen.

    Die Sperrung durch die robots.txt verhindert das Anzeigen einer Meta-Description in den SERPs

    Die Sperrung durch die robots.txt verhindert das Anzeigen einer Meta-Description in den SERPs

    Trotz Sperrung mittels robots.txt findet sich die Seite in den Suchergebnissen wieder? Eine berechtigte Frage, welche wir in unserer SEO-Wissensdatenbank Frag SISTRIX beantwortet haben:

    Dieser Umstand scheint jedoch nicht alleine für den Abfall der Sichtbarkeit der Domain verantwortlich zu sein.

    Sichtbarkeitsverlauf der Domain TU-Dresden.de

    Sichtbarkeitsverlauf der Domain TU-Dresden.de

    Auf den Suchergebnisseiten und in den Daten der Toolbox ist mir aufgefallen, dass Inhalte der Domain tu-dresden.de seit zwei Wochen verschlüsselt, über das HTTPS-Protokoll, ausgeliefert werden. Wäre dies ein gewollter Effekt, würde/müsste Google die gesamte Domain erneut crawlen und dies könnte einen temporären Abfall im Sichtbarkeitsindex erklären.

    Nach dem Relaunch: “Es ist ein Fehler aufgetreten” – aber der Title ist gut!

    Die Domain fussball.de hat ein Ranking-Problem. Zum 28.07.2014 überging die redaktionelle
    und wirtschaftliche Verantwortung der Internetpräsenz FUSSBALL.DE an den DFB. Man gehe mit einem hohen personellen, technischen und wirtschaftlichen Aufwand an die Herausforderung, aus dem erfolgreichen bestehenden Auftritt das Portal und die digitale Heimat des Amateurfußballs zu machen, heißt es im entsprechenden Infoschreiben des DFB.

    Zuerst schaltete man die Subdomain http://community.fussball.de/ ab. Ebenso auch weitere Hosts.

    Die Spielzeit der Community von fussball.de ist beendet

    Die Spielzeit der Community von fussball.de ist beendet

    Zudem treten nun nach dem Relaunch beim Aufruf vieler Inhalte, wie z.B. bei der einstigen Top-Position zu dem Keyword [fußball videos], Fehler auf – sprich die entsprechende Seite wurde nicht gefunden.

    Fehlerseite bei fussball.de

    Fehlerseite bei fussball.de

    Bis auf den schön gestalteten Title der Fehlerseite ist dem nichts mehr hinzuzufügen. Die Sichtbarkeit der Domain ist deshalb stark eingebrochen.

    Sichtbarkeitsverlauf einzelner Hostnamen der Domain fussball.de

    Sichtbarkeitsverlauf einzelner Hostnamen der Domain fussball.de

    Langfristig möchte man auf fussball.de durch qualitativ hochwertige redaktionelle Inhalte die
    besondere Faszination Amateurfußball transportieren. Hoffen wir, dass dies auch auf den Suchergebnisseiten von Google bemerkbar wird.

    Eine weiterführende Berichterstattung zum Relaunch ist u.a. hier zu finden.

    Damit schließt sich der IndexWatch 08/2014.

    The post IndexWatch 08/2014 appeared first on SISTRIX.

    SISTRIX