• E-commerce Solution

    Umsatz machen… … 24 Stunden am Tag, 365 Tage im Jahr. Die Anzahl der sogenannten Webshops oder eShops auf dem Marktplatz Internet steigt täglich an.

    Read More
  • Link Building

    Während bei der Onpage- oder Onsite-Optimierung einer Webseite vornehmlich die Struktur und der Inhalt optimiert werden, fokussiert man beim Linkaufbau in erster Linie das Umfeld der betreffenden Webseite. Beim Linkaufbau versucht man die Anzahl der auf die eigene Webseite verweisenden …

    Read More
  • Content Management

    Open Source Software aus Überzeugung Ein Tätigkeitsschwerpunkt von hauptsache.net ist die Entwicklung von Lösungen unter Verwendung von Open Source Software.

    Read More
  • Web Development

    Comming soon!

    Read More
  • SEO Consulting

    Wie „denken“ Suchmaschinen? Suchmaschinen arbeiten auf unterschiedliche Art und Weise. 

    Read More

    Monthly Archives: Februar 2014

  • Entdecke Deine Content Stars

    Februar 28, 2014 7:18 pm - Posted by admin Category:SEO + SEM

    Für die Social Signals-Auswertungen der Toolbox entdecken unsere Crawler täglich etliche neue Inhalte und finden Millionen von Likes, Tweets und äquivalenten GooglePlus-Liebesbekundungen. Diese Daten analysieren wir jetzt jede Stunde domainübergreifend und stellen die Ergebnisse kostenfrei zur Verfügung: in den Top-Listen der SISTRIX Content Stars findest Du die aktuellen Inhalte, die derzeit das Netz bewegen.

    content-stars

    Mit kleinem Screenshot und Anzahl der Social Signals versehen, stellen wir sowohl eine allgemeine Top-Liste als auch ein paar spezialisierte Auswertungen zur Verfügung: interessante Videos und deutschsprachige Inhalte sind derzeit auswählbar. Die Anwendungsmöglichkeiten sind vielfältig und bewegen sich in dem breiten Band zwischen der Entdeckung interessanter Content Marketing-Ideen für Deine Kunden bis zu kurzweiligen Unterhaltung während der Mittagpause. Viel Spaß und dreimal Bonn Alaaf!

    The post Entdecke Deine Content Stars appeared first on SISTRIX.

    SISTRIX

  • Monthly Archives: Februar 2014

  • Tools für das GEO-Targeting von Websites

    Februar 25, 2014 1:24 am - Posted by admin Category:SEO + SEM

    Viele Websites bieten mehrsprachige Inhalte oder unterschiedliche Inhalte für verschiedene Länder an. Oft ist das GEO-Targeting jedoch nicht korrekt oder nur unvollständig umgesetzt. Wir haben zwei neue kostenlose Tools geschaffen, um das GEO-Targeting von Websites zu vereinfachen.

    Warum man sich mit dem GEO-Targeting seiner Website auseinander setzen sollte

    Ein User, nennen wir ihn Martin, lebt in Deutschland bei Bonn und möchte sein Wohnzimmer mit einer neuen Polstergarnitur ausstatten. Dafür nutzt es die Suchmaschine Google und sucht nach dem Stichwort [polstergarnitur schwarz]. Obwohl Martin bemerkt, dass das erste organsiche Ergebnis von einer .ch-Domain ist, klickt er auf dieses, da der Seitentitel und die eingeblendeten Rich Snippets seiner Suchanfrage entsprechen. Nun passiert folgendes:

    • Martin erhält alle Preise ausgewiesen in Schweizer Franken
    • kostenlose Lieferung und Aufbau der Polstergarnitur ist inklusive
    • die Lieferung erfolgt ausschließlich nach Zürich

    Anstatt, dass der Onlineshop sein Potenzial der Top-Platzierung auf dem deutschen Suchmarkt ausnutzt und den Besucher Martin in einen zahlenden Kunden konvertiert, führt hier schlechtes Geo-Targeting zur Frustration auf Seiten des Nutzer und hat letztendlich keine Auswirkung auf das Geschäft des Onlineshops, da Martin hier nicht seine Polstergarnitur bestellen wird.

    Ein Glücksfall für den Onlineshop

    Hätte der Shop von vornherein auf eine GEO-Targeting Lösung gesetzt, indem z.B. das CMS automatisch erkennt, dass Martin von Deutschland aus sucht und ihn auf der Seite gefragt hätte “Wir konnten feststellen, dass ihr derzeitiger Standort Deutschland ist. Wollen Sie auf unseren Deutschland-Shop wechseln?”, dann wäre aus Martin mit hoher Wahrscheinlichkeit ein konvertierender Besucher geworden.

    In diesem Falle hatte der Onlineshop Glück, überhaupt einen Klick von Martin zu erhalten. Die meisten User klicken nicht auf ein Ergebnis, welches eine ausländische TLD aufweist bzw. keine erkennbare und passende Sprach- oder Länderversion anzeigt.
    Es muss also nicht verdeutlicht werden, wie wichtig die Platzierung von regionalen relevanten Inhalten auf den Suchergebnisseiten für eine Website ist. Glücklicherweise würde für den Onlineshop die Implementierung der rel=”alternate” hreflang=”x” Anmerkung Abhilfe schaffen.

    Die Zuweisung von relevanten Sprach- und Länderversionen einer Website hat einen großen Einfluss bei Google und sollte von jeder Website mit mehrsprachigen Inhalten beachtet werden.

    Der hreflang-Guide für internationales SEO

    Google verwendet die Anmerkungen rel=”alternate” hreflang=”x”, um Nutzern die korrekte Sprache oder regionale URL in den Suchergebnissen anzubieten. Zudem kann durch dessen Verwendung das Duplicate Content-Problem bei mehrsprachigen Inhalten gelöst werden.

    Laut John Müller, Webmaster Trends Analyst bei Google in der Schweiz, wird das hreflang Link-Attribut Markup in vielen Fälle nicht korrekt oder nur unvollständig eingesetzt.

    Um in Zukunft die Verwendung der hreflang-Anmerkung für jeden Webmaster zu vereinfachen, haben wir den hreflang-Guide für internationales SEO geschaffen.

    Neben umfassenden Informationen zu Googles GEO-Targeting Signalen und der ausführlichen Erklärung der hreflang-Anmerkung, haben wir mit dem hreflang Link-Attribut Markup Validator und dem hreflang Link-Attribut Markup Generator zwei kostenlose Tools geschaffen, um vorhandenes hreflang-Markup auf Gültig zu überprüfen sowie das korrekte Markup zu erstellen.

    Vorschau hreflang-Validator:

    Der hreflang-Validator von SISTRIX

    Der hreflang-Validator von SISTRIX

    Vorschau hreflang-Generator:

    Der hreflang-Generator von SISTRIX

    Der hreflang-Generator von SISTRIX

    The post Tools für das GEO-Targeting von Websites appeared first on SISTRIX.

    SISTRIX

  • Monthly Archives: Februar 2014

  • Regalplatzoptimierung bei Google

    Februar 13, 2014 1:42 am - Posted by admin Category:SEO + SEM

    Welche zwei Dinge haben eine Suchergebnisseite von Google und ein Regal im Supermarkt gemeinsam?

    1. Sie dienen einem bestimmten Ziel.
    2. Sie verfügen nur über ein begrenztes Platzangebot (Engpass)

    Zeitschriftenregal

    Der Engpass begrenzt jeweils die Leistungsfähigkeit des ganzen Systems. Der Supermarkt könnte mit mehr Regalfläche mehr Geld verdienen, da er dann eine größere Auswahl von Produkten anbieten und so mehr Kaufbedürfnisse befriedigen könnte. Ebenso könnte Google mit mehr als 10 organischen Treffern auf der ersten Suchergebnisseite mehr Suchanfragen zufriedenstellend beantworten (Searcher Satisfaction).

    Sowohl Google als auch der Supermarkt stehen vor dem Problem das optimale Angebot für ein begrenztes Platzangebot auszuwählen. Während das übliche Vorgehen beim Supermarkt bekannt ist und zu den Grundaufgaben der Betriebswirtschaftslehre gehört, wird über das Vorgehen bei Google viel gerätselt. Es lohnt sich einen Blick auf die Auswahlentscheidung des Supermarktes zu werfen. Vielleicht lernen wir dabei auch eine ganze Menge über die Auswahl der Treffer bei Google.

    Anmerkung: Selbstverständlich verfolgt auch Google das Ziel der Gewinnmaximierung. Betrachtungsgegenstand in diesem Beitrag sind die kostenlosen, organischen Treffer auf den Suchergebnisseiten. Wir gehen in diesem Beitrag aber vereinfachend davon aus, dass die organischen Treffer bei Google das Ziel der Nutzerzufriedenheit und die AdWords-Anzeigen das Ziel der Gewinnmaximierung verfolgen. Die Wechselwirkungen zwischen organischen Treffern und AdWords-Anzeigen sind nicht Inhalt dieses Beitrags.

    Warum zeigt Google nicht einfach mehr als 10 Treffer an?

    Auf den ersten Blick wäre es für Google am einfachsten die Zufriedenheit der Nutzer mit den Suchergebnissen zu steigern, indem sie mehr als 10 organische Treffer auf einer Suchergebnisseite (SERP) anzeigen. Google hat zur dieser Idee seine Nutzer befragt und bekam von diesen tatsächlich die Antwort, dass sie sich mehr Ergebnisse wünschen. Mehr ist mehr.

    Laut der ehemaligen Vizepräsidentin Marissa Mayer führte Google daraufhin Tests mit 30 Treffern pro SERP durch. Der Umsatz und Traffic fiel bei diesem Experiment um 20 Prozent gegenüber der Variante mit 10 Treffern. Wie ist das zu erklären?

    Google benötigte 0,4 Sekunden um eine SERP mit 10 Treffern zusammenzustellen und auszuliefern. Die Seite mit 30 Treffern benötigte hingegen 0,9 Sekunden. Dieser Unterschied von 0,5 Sekunden zerstörte die Nutzerzufriedenheit und führte zu einem neuen Engpass, der 20 Prozent Traffic kostete. Daher beschränkt sich Google bis heute auf 10 organische Treffer.

    Grundsätzlich das gleiche Problem hat der Supermarkt. Er könnte theoretisch mehr Regale aufstellen. Aber eine solche Maßnahme würde die Gänge für die Kunden verengen und damit das gesamte Einkaufserlebnis stark beeinträchtigen. Somit ist auch das Angebot im Supermarkt durch ein bestimmtes Platzangebot limitiert.

    Rechenaufgabe: Optimiere das Regal im Supermarkt

    Nachdem der Engpass bekannt ist, schauen wir uns am besten ein einfaches Beispiel an. Nehmen wir an, in einem Supermarkt steht ein Regal mit Zeitungen und Zeitschriften. Das Regal verfügt über 10 Regalreihen, die mit Printprodukten gefüllt werden können. Dem Supermarkt-Manager stehen folgende Daten zur Verfügung.

    Daten für die Regalplatzoptimierung im Supermarkt

    Daten für die Regalplatzoptimierung im Supermarkt

    Anmerkung: Der geneigte Leser mag mir verzeigen, dass ich in diesem Beispiel den in der Betriebswirtschaft korrekten Begriff „Deckungsbeitrag“ und nicht den umgangssprachlichen Begriff „Gewinn“ verwende. Ich kann nicht anders. Zur Erklärung: Gewinn = Deckungsbeitrag – fixe Kosten (Gebäudemiete, Personalkosten usw.).

    Welche Änderungen sollte der Supermarkt-Manager bei bei der Zusammenstellung des Angebotes vornehmen, um zukünftig mehr Deckungsbeitrag mit dem Regal zur erwirtschaften? Sollte das Sortiment verändert werden? Kennst Du den richtigen Lösungsweg?

    Lösung Rechenbeispiel

    Die Lösung ist sehr einfach, wenn man einmal das Prinzip der Engpassoptimierung verinnerlicht hat. Das ganze System muss auf eine optimale Ausnutzung des Engpasses ausgerichtet werden, in diesem Fall auf die vorhandene Regalfläche.

    Lösung Regalplatzoptimierung

    Der Deckungsbeitrag pro Produktgruppe muss durch die Anzahl belegter Regalreihen geteilt werden, um den relativen Deckungsbeitrag pro Produktgruppe zu erhalten. Das Angebot von Produktgruppen mit einem relativen Deckungsbeitrag >200 € wird erweitert und das Angebot von Produktgruppen mit einem relativen Deckungsbeitrag <200 reduziert.

    Die entscheidende Kennzahl ist nicht der in Tabelle 1 angegebene Deckungsbeitrag pro Produktgruppe (Publikumszeitschriften, Fachzeitschriften usw.). Für eine Optimierung des Regals benötigen wir den Deckungsbeitrag pro Engpassbeanspruchung (relativer Deckungsbeitrag pro Regalreihe). Konkret fragen wir uns also nicht, wie viel Deckungsbeitrag die einzelnen Produktgruppen insgesamt erwirtschaften, sondern wie viel Deckungsbeitrag sie pro beanspruchten Regalfläche erwirtschaften. Dazu teilen wir den Deckungsbeitrag pro Produktgruppe einfach durch die Anzahl belegter Regalreihen und erhalten so den relativen Deckungsbeitrag. Wir alle kennen das Prinzip aus dem Online-Marketing, wenn wir mit Kennzahlen wie der Click-Through-Rate (CTR) arbeiten und ein Anzahl Klicks in ein Verhältnis zur Engpassbeanspruchung (Impression) setzen.

    Relativer Deckungsbeitrag pro ProduktgruppeIm Schnitt erzielen die 10 Regalreihen einen Deckungsbeitrag in Höhe von 200 € (2.000 € DB : 10 Regale). Die Fachzeitschriften erzielen pro Regalreihe nur 150 EUR. Sie sind damit die unwirtschaftlichste Produktgruppe. Insgesamt erzielen sie nach den Publikumszeitschriften mit 450 EUR zwar den zweithöchsten Deckungsbeitrag. Allerdings belegen sie auch 3 Regalreihen und damit 30 Prozent des Engpasses. Sie erwirtschafte aber nur 22,5 Prozent des Deckungsbeitrages. Ein Teil dieses Regalplatzes könnte daher besser genutzt werden.

    Die Comics erzielen insgesamt nur 300 EUR Deckungsbeitrag, aber sie belegen auch nur 1 Regalreihe. Sie sind mit einem relativen Deckungsbeitrag in Höhe von 300 EUR die wirtschaftlichste Produktgruppe.

    Die Optimierung kann jetzt ganz einfach erfolgen. Das Angebot an allen Produktgruppen, die einen unterdurchschnittlichen relativen Deckungsbeitrag erwirtschaften (< 200 EUR), sollte reduziert werden zugunsten von Produktgruppen, die einen überdurchschnittlichen (> 200) relativen Deckungsbeitrag erzielen.

    In unserem Beispiel sollte der Supermarkt-Manager also weniger Fachzeitschriften und weniger Zeitungen in das Regal stellen und den frei gewordenen Platz versuchsweise mit Comics und Publikumszeitschriften auffüllen. Eventuell lohnt es sich auch eine weitere Produktgruppe wie z.B. Taschenbücher anzubieten. Das langfristige Ziel ist den durchschnittlichen Deckungsbeitrag pro Regalreihe zu steigern.

    Es gibt keine exakte Lösung, da der Grenznutzen der Produktgruppen unbekannt ist. Der Manager weiß nicht, ob er das Comic-Angebot um 10, 50 oder 100 Prozent steigern soll. Bekannt ist nur die Richtung. Es bleibt ihm nichts anderes übrig als sich durch Tests iterativ an die optimale Lösung heranzutasten. Nach der Umstellung des Angebots beginnt ein neuer Kreislauf mit neuen Daten.

    In der Praxis sind diese Entscheidungsprozesse selbstverständlich komplexer, es liegen mehr Informationen, Daten und Optionen vor. Das Beispiel sollte aber bewusst einfach gehalten werden.

    Wie lässt sich die Regalplatzoptimierung auf Google übertragen?

    Theory of ConstraintsDas Prinzip der Engpassoptimierung, auch Theory of Constraints genannt, ist eine in der BWL weit verbreitete, praxistaugliche und erfolgreiche Methode. Sie wird nicht nur für die Verkaufsflächennutzung im Einzelhandel angewendet, sondern praktisch in der gesamten BWL (Produktion, Marketing, Supply-Chain-Management, Finanzen, Controlling, Projektmanagement usw.).

    Die Abbildung des Trichtermodells rechts dient zur Illustration des Hauptsatzes der Theory-of-Constraints: „In jeder Wertschöpfungskette gibt es genau ein System, das die Leistungsfähigkeit des Ganzen bestimmt – ein eindeutiger Engpass“

    Es wäre wenig überraschend, wenn auch Google das Rad nicht komplett neu erfindet und bei der Auswahl der Suchtreffer dieses grundsätzliche Prinzip anwendet. Es gibt einige Punkte, die dafür sprechen. Bevor wir uns dazu tiefergehende Gedanken machen, müssen wir kurz einen etwas größeren Bogen spannen und ein paar Informationen über das Google Suche und das Ranking zusammentragen.

    Google kann nicht jeden Treffer für jede Suchanfrage einzeln bewerten

    John Wiley, Llead Designer Google Search, sagte 2013, dass etwa 15 Prozent der täglichen Suchanfragen neu sind und noch nie zuvor an Google gestellt wurden. Das entspricht etwa 500 Millionen Suchanfragen pro Tag. Google hat in diesen Fällen schlicht und einfach keine Daten aus der Vergangenheit darüber, welche Treffer von den Nutzern für die spezifische Suchanfrage als gut empfunden werden und dem Ziel der Nutzerzufriedenheit, der Searcher Satisfaktion, am besten dienen.

    Man kann nur erahnen, wie groß der Anteil Suchen ist, die zwar schon einmal durchgeführt wurden, aber so selten sind, dass Google über keinen ausreichend großen und aktuellen Datenpool für die Bewehrung einzelner Treffer verfügt. Ein Wert von 30–60 Prozent würde mich nicht überraschen.

    Google kann zwar anhand einer OnPage-Analyse bestimmen, ob ein Treffer für eine bestimmte Suchphrase grundsätzlich als relevant erscheint, aber nicht beurteilen, ob der Treffer tatsächlich die Nutzer zufriedenstellt. Unter diesen Bedingungen ist Google dazu gezwungen weitere Signale auszuwerten, die eine möglichst gute Vorhersage erlauben, welche Qualität ein Treffer besitzt.

    Links sind sehr wichtige Signale, haben aber ihre Grenzen

    Nach der Auswahl aller relevanten Dokumente für eine bestimmte Suchanfrage beruht das Grundprinzip von Google auf dem PageRank-Algorithmus. Dabei handelt es sich um ein Verfahren eine Menge verlinkter Dokumente anhand ihrer Verlinkungs-Struktur zu bewerten. Jeder SEO weiß, wie wichtig Links auch heute noch für das Google Ranking sind.

    Grundsätzlich funktioniert der PageRank-Algorithmus sehr gut und hat Google in kürzester Zeit zum Marktführer unter den Suchmaschinen werden lassen. Das Prinzip hat aber seine Grenzen.

    Für einzelne Seiten liegen wenig Signale vor

    Google kennt über 60 Billionen einzelne Seiten. Die deutliche Mehrzahl der Dokumente (URLs) im World Wide Web wird nicht von externen Websites verlinkt. Eine Domain wie ebay.de ist derzeit mir über 30 Mio. unterschiedlichen URLs im Google Index vertreten. Sicherlich besitzt nur ein relativ kleiner Bruchteil dieser URLs einen externen Link, zumal viele URLs nach Ablauf einer Auktion veraltet sind. Ähnliches trifft auf die meisten anderen Websites zu.

    Daher muss Google im großen Umfang ebenfalls die internen Verlinkung einer Domain berücksichtigen, um Linkdaten zu jeder bekannten URL zu erhalten. Die interne Verlinkung lässt sich jedoch komplett vom Seitenbetreiber steuern und ist damit nur bedingt vertrauenswürdig.

    Aber auch die externe Verlinkung wird seit Jahren durch bezahlte Links manipuliert und ist nur eingeschränkt vertrauenswürdig.

    Google bewertet die Qualität ganzer Domains

    Das Problem der mangelnden Daten zu jeder einzelnen URL kann Google abschwächen, indem die Qualität der dazugehörige Domain bewertet wird. Die Summe der Signale einer Domain inklusive aller URLs ergeben wesentlich mehr belastbare Daten zur Bewertung der Quelle.

    Google RankingFolgerichtig spricht Google auch von „Website– und Seitenqualität“, wenn sie die Funktionsweise des Rankings erklären.

    In SEO-Kreisen spricht man bei der Bewertung einer ganzen Domain durch Google auch von Domain Trust oder Domain Authority (Bewertung der Domain für ein bestimmtes Themengebiet wie z.B. „Gesundheit“ oder „Sport“).

    Das grundsätzlich gleiche Problem trifft auch auf unseren Supermarkt-Manager zu. Er kann unmöglich jede einzelne Zeitschrift und jede einzelne Ausgabe testen und bewerten, um sein Sortiment zusammenzustellen. Zudem ändert sich die Qualität einzelner Produkte von Ausgabe zu Ausgabe. Er ist darauf angewiesen die Komplexität zu verringern, indem er anstelle von einzelnen Ausgaben z.B. Produktgruppen wie Publikumszeitschriften und Fachzeitschriften zusammenfasst, bewertet und deren Leistungsdaten miteinander vergleicht. Es sind beliebig weitere Dimensionen wie z.B. Preisgruppen und Verlage/Anbieter/Marken denkbar.

    Google wertet zusätzlich das Nutzerverhalten aus

    Es dürfte inzwischen in SEO-Kreisen unbestritten sein, dass Google nicht nur die Verlinkung auswertet, sondern in einer weiteren Stufe auch das Nutzerverhalten. Anhand der Linkdaten lässt sich ein erstes Set von relevanten und möglichst vertrauenswürdigen Treffern für die Top 10 zusammenstellen.

    Deutlich bessere Suchergebnisse erhält Google, wenn auch die Interaktion der Nutzer mit den Suchergebnissen ausgewertet wird und zu einer Umsortierung der Suchergebnisse führen kann.

    Es wäre nicht logisch und zielführend einen Treffer dauerhaft auf Position 1 anzuzeigen, wenn ein Treffer auf den Positionen 2–10 von den Nutzern beständig häufiger ausgewählt wird. Ebenso wäre es unlogisch eine Treffer dauerhaft in den Top 10 zu behalten, wenn er kaum von den Nutzern ausgewählt wird. Bei aktuellen Ereignissen und sogenannten Hot Topics sind seit Jahren historisch gewachsene Verlinkungen erst Recht kein brauchbares Signal. Man spricht in solchen Fällen auch von einem Reranking, also einer Neureihung der Suchergebnisse. Google hat dazu eine ganze Reihe von Patentschriften eingereicht, in denen sich Details zu den Überlegungen von Google nachlesen lassen.

    Nutzersignale können Kriterien wie Content-Qualität, Website-Usability und Präferenzen (z.B. für Marken) berücksichtigen. Im Zweifel ist die „Abstimmung“ der Nutzer als wertvoller einzustufen, als als das pure Vertrauen in Linkdaten. Gleichwohl sind die Linkdaten wichtig, damit eine Seite überhaupt bei der „Abstimmung“ zur Auswahl steht.

    Welche Daten verwendet Google für die Auswertung des Nutzerverhaltens?

    Es ist nicht bekannt welche Nutzerverhaltensdaten im einzelnen für das Ranking bzw. Reranking ausgewertet werden, wie Google die Searcher Satisfaction exakt definiert und wie einzelne Treffer aufgrund des Nutzerverhaltens bewertet werden. Denkbar sind Metriken, wie beispielsweise CTR, Clickstream-Daten, Verweildauer und Return-To-SERP-Rate. Die CTR wäre bei allen diesen Metriken zumindest der Ausgangspunkt.

    Ebenfalls ist die Auswertung von Daten denkbar, die über den Chrome-Browser von Google gesammelt werden und praktisch für alle Domains zur Verfügung stehen. Weniger wahrscheinlich ist, dass Google Daten von Google Analytics auswertet. Zum einen wären die Analytics-Daten nur für Domains verfügbar, die auch tatsächlich Analytics verwenden. Laut den Daten von builtwith.com sind das nur 10 Prozent aller Websites, auch wenn bei den großen Websites der Anteil höher liegt.

    Zum anderen hätte Google ein Glaubwürdigkeitsproblem, da offiziell immer verlautbart wird, dass die Analytics-Daten nicht für das Ranking ausgewertet werden. Der Chrome-Browser besitzt laut den Daten von StatCounter mittlerweile eine weltweiten Marktanteil von über 40 Prozent (Deutschland 26 Prozent). Damit dürften Nutzungsdaten zu praktisch jeder Website vorliegen. Als Datenquelle wäre er damit gegenüber Analytics die wesentlich besserer Alternative.

    Entwicklung Marktanteile Web-Browser

    Entwicklung Marktanteile Web-Browser. Inzwischen ist der Google Chrome Browser mit einem weltweiten Marktanteil von rund 40 Prozent Marktführer.

    Zudem stehen Google selbstverständlich die Daten direkt aus der Google Suche zur Verfügung. In den Google Webmaster-Tools zeigt Google die CTR zu einzelnen Suchanfragen und URLs an. Diese Daten werden also garantiert gemessen und ausgewertet.

    Gehen wir für unser Beispiel vereinfacht davon aus, dass Google den „Zufriedenheitsbeitrag“ eines einzelnen Treffers anhand der CTR bewertet, auch wenn die Bewertung in der Realität sicherlich komplexer und ausgeklügelter verlaufen wird.

    Beispiel CTR-Daten in den Google Webmaster Tools

    Beispiel CTR-Daten in den Google Webmaster Tools

    Die CTR wäre bei der Google-Suche in unserem vereinfachten Beispiel damit das Äquivalent zum relativen Deckungsbeitrag aus dem Supermarktbeispiel. Die CTR berücksichtigt bereits die Engpassbeanspruchung. Der Wert für die Anzahl Klicks wird im Verhältnis zu den Impressions (Engpass) betrachtet.

    Grenzen der CTR-Daten

    Wie weiter oben bereits beschrieben, liegen bei einer Vielzahl von Seiten nur wenige seitenindividuelle Daten vor. Das trifft nicht nur auf Linkdaten zu. Selbstverständlich betrifft es auch die CTR-Daten.

    Man kann das sehr schön sehen, wenn man sich die CTR-Daten in den Google Webmaster Tools anschaut. Man kommt bei der Auflistung der Keywords und der einzelnen URLs relativ schnell an den Punkt, an dem Google in der Spalte „Klicks“ Werte unter 10 anzeigt.

    Bei dem weiter oben dargestellten Daten einer großen Domain mit über 34 Mio. SERP-Impressions und mehr als 2 Mio. Klicks pro Monat, die ich mir für diesen Beitrag angeschaut habe, lagen die Werte von Suchanfragen mit weniger als 10 Klicks pro Monat bei etwa 50 Prozent. Allerdings zeigt Google in der Auswertung auch nur die populärsten Suchanfragen an. In dem Fall wurden nur 6 Mio. von 34 Mio. SERP-Impressions angezeigt, also rund 18 Prozent. Bei den meisten Suchanfragen besitzt Google also keine aussagekräftigen Daten zu Treffern einer einzelnen Domain.

    Insgesamt wird unabhängig vom exakten Wert sehr deutlich, dass die CTR-Daten nur für relativ populäre Suchanfragen halbwegs aktuelle Daten zu einzelnen Treffern liefern können. Sie stoßen wie die Linkdaten bei einer Vielzahl von Suchanfragen schnell an ihre Grenzen.

    Wie bewertet Google die CTR-Daten der gesamten Domain?

    Es wäre logisch und sinnvoll, wenn Google die CTR-Daten der gesamten Domain berücksichtigt (bzw. die ausgeklügeltere, aber uns unbekannte Definition von „Searcher Satisfaction“). Diese Kennzahl könnte einen Bestandteil einer übergeordneten Metrik „Domain Trust“ bilden.

    Der dahinter liegende Gedanke ist sehr einfach. Wenn eine Domain insgesamt überdurchschnittlich viel Searcher Satisfaction erzeugt, kann die Searcher Satisfaction über alle Google-Suchen weiter gesteigert werden, wenn relevante Treffer der Domain bei noch mehr Suchen noch populärer angezeigt werden.

    Die Gründe, warum Nutzer die Treffer einer bestimmten Domain bei ähnlicher Relevanz gegenüber anderen Domains als zufriedenstellender empfinden, können mannigfaltig sein. Domainname, Markenpräferenzen, Ladezeiten, Content-Qualität, Sprachstil, Usability, (Un-)Aufdringlichkeit der Werbeeinbindungen, Qualität der Snippet-Optimierung und empfundene Vertrauenswürdigkeit sind hier nur einige Kriterien, die dabei in Frage kommen und von den Nutzern bewusst oder unbewusst durch ihr Verhalten bewertet werden.

    Folgt man dieser Überlegung, wäre es im Sinne der Engpassoptimierung folgerichtig einer Domain mit einer überdurchschnittlich guten CTR zukünftig mehr Sichtbarkeit (SERP-Impressions) in den SERPs einzuräumen. Umgekehrt würde man die SERP-Impressions einer Domain mit unterdurchschnittlichen CTR-Daten so lange reduzieren, bis sie durchschnittliche Werte erreicht.

    Diese Strategie wäre geeignet die Searcher Satisfaction insgesamt zu steigern, so wie der Supermarkt-Manager aus unserem Beispiel den Deckungsbeitrag seines Regals steigern kann, indem er den Anteil überdurchschnittlich wirtschaftlicher Produktgruppen erhöht.

    Die Sichtbarkeit von Domains entwickelt sich in Trends

    Die Sichtbarkeit einer Domain verläuft nicht generell linear, sondern ist ständigen Schwankungen mit Aufs und Abs unterworfen. Auf diese Weise bilden sich recht eindeutige Gipfel und Täler im Sichtbarkeitsindex. Die Richtung der Gipfel und Täler definiert einen Trend. Von einem Aufwärtstrend spricht man, wenn eine Serie sukzessiv höherer Gipfel und Täler zu beobachten ist. Umgekehrt liegt bei einer Serie von sukzessiv niedrigeren Gipfeln und Tälern ein Abwärtstrend vor. Eine Abfolge von gleich hohen Gipfeln und Tälern definiert hingegen einen seitwärts gerichteten Trend. Eine ausführliche Beschreibung der Trendanalyse erhält man in unserem kostenlosen Buch „SEO-Analysen“.

    Die folgende Grafik zeigt als Beispiel den Aufwärtstrend von apotheken-umschau.de und den Abwärtstrend von netdoktor.de über einen langen Zeitraum von mehreren Jahren.

    Beispiele Trends in der Entwicklung der Sichtbarkeit

    Während der eine Wettbewerber über eine sehr langen Zeitraum innerhalb des Trendkanals ständig Sichtbarkeit gewinnt, verliert der andere Wettbewerber zunehmend an Sichtbarkeit bei Google.

    Das vorgestellte Modell der „Regalplatzoptimierung“ wäre geeignet solche Trend zu erklären. Eine Domain mit überdurchschnittlich guten Werten für die Searcher Satisfaction erhält schrittweise immer mehr Sichtbarkeit. Sie darf den Engpass SERP-Impressions stärker auslasten. Dieses geschieht so lange, bis der Grenznutzen weiterer Impressions der Domain in den Suchergebnissen immer weiter abnimmt und die Domain insgesamt nur noch durchschnittliche Werte erreicht.

    Erzielt eine Domain unterdurchschnittliche Werte, wird ihr Sichtbarkeit entzogen. Sie darf den Engpass nur noch in einem geringeren Umfang beanspruchen.

    Zusätzlich bestimmen selbstverständlich weitere Faktoren wie Linkentwicklung, Contentaufbau, fortschreitende SEO-Optimierung, Umgestaltungen der Website, Google-Updates usw. die Entwicklung der Sichtbarkeit. Das Modell der „Regalplatzoptimierung“ würde aber sehr gut erklären, warum sich bei so vielen Domains die Sichtbarkeit oftmals über einen langen Zeitraum in vielen kleinen Schritten anstatt in wenigen Stufen in eine bestimmte Richtung entwickelt.

    Was bedeutet das für die Praxis?

    Um es ganz klar zu sagen, das Modell der „Ragalplatzoptimierung“ bei Google ist nur eine theoretische Überlegung und an keiner Stelle belegt. Es ist aber sehr hilfreich, wenn man ein funktionierendes Modell der Mechanismen des Google-Algorythmus im Hinterkopf hat, um einzelne Entwicklungen zu verstehen. Hält man das Modell für plausibel und folgt dem Gedanken, ergeben sich daraus insbesondere zwei Stellschrauben für die Praxis:

    1. Optimierung der Leistung: Alle erfolgreichen Maßnahmen zur Steigerung der Searcher Satisfaction einer bestimmten Domain steigern ihre Sichtbarkeit in Form von mehr und besseren Rankings.
    2. Optimierung der Engpassbeanspruchung: Indexierte Inhalte, die nur eine unterdurchschnittliche Performance bei der Searcher Satisfaction erzielen, schmälern die Gesamtperformance der Domain und reduzieren damit die zukünftige Sichtbarkeit der Domain in den Suchergebnissen von Google. Daher sollten Seiten mit einer schlechten Performance Google erst gar nicht angeboten werden (<meta name=”robots” content=”noindex”>). Der Engpass “Impressions” in den Suchergebnissen bei Google sollte möglichst nur von Seiten mit einer guten Performance beansprucht werden, um von Google zukünftig einen höheren Anteil der Engpassbeanspruchung zugewiesen zu bekommen.

    Während über die Optimierung der Leistung ständig geschrieben und geredet wird, bleibt die Optimierung der Engpassbeanspruchung oftmals unbeachtet. Konkret geht es darum, welche Inhalte man von Google indexieren lässt und welche nicht. Viele erfahrene SEOs berichten von ihren Beobachtungen, dass es sich sehr positiv auf die Rankings auswirkt, wenn man nur Seiten mit tatsächlich wertvollem und einzigartigem Content indexieren lässt und weniger wertvolle Seiten deindexiert. Auch diese Beobachtungen ließen sich mit dem Modell der „Ragalplatzoptimierung“ erklären.

    9 Tipps für die Optimierung der Engpassbeanspruchung in der Praxis

    Zum Schluss möchte ich noch 9 Tipps für die Optimierung der Engpassbeanspruchung „SERP-Impressions“ auf den Weg geben.

    1. Prüfe regelmäßig die CTR-Daten in den Google Webmastertools. Man sollte in Bezug auf die CTR die Stärken und Schwächen der Domain kennen.
    2. Sind die Stärken erst einmal bekannt, produziere mehr Inhaltsseiten von dieser Art.
    3. Überlege bei Suchanfragen und Seiten mit schlechten CTR-Werten, ob die Seite auf die richtige Suchphrase optimiert wurde. Eventuell beinhaltet eine Seite tollen Content, wird aber aufgrund falscher Signale einfach nur bei den falschen Suchanfragen angezeigt. Schau Dir die Treffer (Überschrift, Description, URL) und Inhalte der anderen Seiten an, die für das Keyword in den Top-10 stehen und überprüfe, ob sie die Suchanfrage eventuell besser beantworten. Versetze Dich in die Lage des Suchenden und versuche seine Bedürfnisse zu verstehen.
    4. Setze Seiten mit schlechten CTR-Daten und Inhalten ohne nennenswerten Mehrwert auf NoIndex, um die restlichen Seiten zu stärken.
    5. Noch besser ist es, wenn ganze Gruppen von Seiten identifiziert werden, die man bedenkenlos auf NoIndex setzen kann. Müssen bei einem Shop wirklich alle Seiten mit Sortier- und Filterergebnissen des Angebots in den Index? Bei zalando.de darf Google z.B. die Seite „Herren Business Schuhe“ indexieren und auch die gefilterten Ergebnisse „Schwarze Herren Business Schuhe“. Die Seiten mit den gefilterten Ergebnissen für „Schwarze Herren Business Schuhe aus Leder“ stehen jedoch auf NoIndex, da es sich um eine weniger explizit nachgefragte Eigenschaft handelt und die Trennschärfe zu den beiden anderen Seiten verloren geht. Macht es bei einem Branchenbuch Sinn alle 3.500 Branchenkategorien auch bei einem kleinen Ort indexieren zu lassen, bei dem es weniger Einwohner als Branchenkategorien gibt? Gehören Seiten mit veralteten Inhalten wie z.B. abgelaufenen Kleinanzeigen wirklich in den Index? Eine klare und sachlogische Trennlinie für die Indexierung ist sehr hilfreich,, um den Engpass nicht unnötig mit weniger wertvollen Inhalten zu beanspruchen.
    6. User-Generated-Content (UGC) ist günstig und daher eine tolle Sache, Qualität und Mehrwert sind jedoch meist sehr durchwachsen. Daher erhalten z.B. Foren und Frage-und-Antwort-Portale im Durchschnitt eher schlechte Nutzersignale. Hier sollte ein wirksames System eingeführt werden, um nur Seiten mit wertvollen Inhalten indexieren zu lassen. Die Auswahl kann redaktionell erfolgen oder automatisch z.B. durch ein Bewertungssystem, bei dem die Nutzer über die Qualität einzelner Inhalte abstimmen können.
    7. Wie immer Google auch die Searcher Satisfaction definiert, die CTR-Werte sind wahrscheinlich ein Teil davon. Die CTR lässt sich durch eine zielgerichtete Gestaltung der Treffer (Titel, Description, URL) steigern. Ein Treffer sollte Relevanz, Mehrwert und eine Handlungsaufforderung kommunizieren. Berücksichtige bei der Gestaltung der Meta-Description das AIDA-Prinzip
    8. Behalte die Anzahl indexierter Seiten im Auge und finde die Ursachen für stärkeren Veränderungen heraus, um eventuell gegensteuern zu können.
    9. Vermeide Duplicate Content.

    The post Regalplatzoptimierung bei Google appeared first on SISTRIX.

    SISTRIX

  • Monthly Archives: Februar 2014

  • Google Page Layout Algorithmus Update aktiv

    Februar 11, 2014 1:07 pm - Posted by admin Category:SEO + SEM

    Google hat eine neue Version des Page Layout Algorithmus veröffentlicht. Dieser Filter, auch als Top Heavy Algorithmus bekannt, ist gegen Seiten gerichtet, die zuviel Werbung im sichtbaren Bereich der Website anzeigen (Ads Above The Fold).

    Laut Tweet von Matt Cutts ist der neue Algorithmus seit Donnerstag, den 6. Februar 2014, aktiv. Diese Änderung betrifft laut Google 1 Prozent der weltweiten Suchen.

    In einem Blogpost weist Google darauf hin, dass der Algorithmus automatisch beim Crawling Änderungen auf der Website erfasst. Reduziert der Websitebetreiber die Anzahl Ads im sichtbaren Bereich, wird der Algorithmus dieses beim nächsten Crawl der Seite wohlwollend berücksichtigen.

    Wir erwarten, dass eine erkennbare Auswirkung des neuen Updates mit dem fortschreitenden Crawling-Prozess von Google in den kommenden SISTRIX Daten für diese Woche auftaucht und werden wie gewohnt dafür einen Ereignis-Pin einpflegen.

    Insgesamt ist es die dritte Version des Page Layout Algorithmus:

    • Page Layout Algorithmus #1: 19. Januar 2012
    • Page Layout Algorithmus #2: 9. Oktober 2012
    • Page Layout Algorithmus #3: 6.Februar 2014

    The post Google Page Layout Algorithmus Update aktiv appeared first on SISTRIX.

    SISTRIX

  • Monthly Archives: Februar 2014

  • IndexWatch 01/2014 & 02/2014

    Februar 4, 2014 7:07 pm - Posted by admin Category:SEO + SEM

    Gewinner Dezember 2013, Highlights 

    # Domain Veränderung Daten
    1 moebel.de +288,79%
    2 sanicare.de +268,56%
    3 yatego.com +249,95%
    4 brillen-sehhilfen.de +45,82%
    5 dr-gumpert.de +28,7%

    Wir haben unseren monatlichen Überblick über die Gewinner und Verlierer im Google-Index in Form des IndexWatches nicht vergessen, sondern zu Gunsten des zweiteiligen Jahresrückblickes aufgeschoben. Nachdem wir vergangenen Monat das Jahr 2013 Revue passiert haben lassen und die Top-100 Gewinner sowie die Top-100 Verlierer im SISTRIX Sichtbarkeitsindex für euch analysiert haben, fassen wir nun die Veränderungen auf dem deutschen Suchmarkt im Dezember 2013 und Januar 2014 zusammen.

    Da das Jahr 2013 bereits hinter uns liegt und ein Sprichwort besagt, dass man die Vergangenheit lieber ruhen lassen solle, widmen wir uns im Dezember 2013 jeweils nur den Top-5 Highlights an Gewinnern und Verlierern, wobei wir im Januar 2014 wie gewohnt auf die Top-15 blicken.

    moebel.de auf dem Weg zu alter Stärke

    Die Historie der Domain moebel.de steht für sich. Einst, als das Google Panda-Update Deutschland erreichte und knapp ein Jahr später bei der elften Iteration des Google Panda-Updates, litt die Sichtbarkeit der Domain stark.

    Sichtbarkeitsverlauf Domain moebel.de

    Gut möglich, dass man sich hier mit den Signalen des Panda-Filters auseinandergesetzt hat und entsprechend Googles Richtlinien zu Erstellung von hochwertigen Inhalten und Webseiten an der Plattform optimiert hat. Bleibt zu hoffen, dass moebel.de nicht nur einem kurzen Aufwärts-”Spike” unterliegt, sondern langfristig wieder zu alter Stärke zurück gelangt.

    sanicare.de mit strauchelnden PDF-Rankings 

    Sanicare.de rankte in der Vergangenheit mit PDF-Dokumenten (Verbraucherinformationen für den Anwender) bei vielen pharmazeutischen Produkten und Arzneimitteln recht gut. Anfang August 2013 war bei dem sich seitwärts bewegenden Sichtbarkeitsverlauf ein zweimonatiges Zick-Zack Muster, gefolgt von einem geringen Abwärtstrend, zu beobachten.

    Sichtbarkeitsverlauf sanicare.de

    Anhand des Ranking-Verlaufs (Grafik) und der jeweils rankenden URL eines exemplarischen Keywords [lactulose ratiopharm] lässt sich schön erkennen, dass in der Zeit vor dem Zick-Zack Muster das PDF-Dokument gut rankte, dann ins straucheln geriet und Wochen später das Ranking mit einer anderen URL zurückkehrte. Ob dies im Zuge einer Umstrukturierung gewollt war, lässt sich außenstehend nicht sagen. Zumindest dürften die entsprechenden Suchtreffer für den User nun etwas relevanter sein, da sanicare.de jetzt zu den entsprechenden Produktdetailseiten (siehe Grafik) rankt und die Sichtbarkeit wieder auf das alte Niveau zurückgekehrt ist.

    Shoppingmal yatego.com mit anhaltendem Negativtrend

    Die Shoppingmall yatego.com viel bereits in unserem IndexWatch 12/2013 als stärkster Verlierer auf. Das die Domain im Dezember 2013 zu den Gewinnern im SISTRIX Sichtbarkeitsindex zähllt, kann den anhaltenden Negativtrend leider nicht stoppen und ist auf einen zuvor gravierenderen Ranking-Verlust zurückzuführen, von dem sich die Domain im Dezember nur erholte.

    Weitere Gewinner im Monat Dezember 2013

    Mit brillen-sehhilfen.de hat es die Ratgeber-Website von Martin Missfeldt in den IndexWatch geschafft.
    Die Domain dr-gumpert.de konnte sich nach einem langjährigen Negativtrend anscheinend aus dem Panda-Filter befreien und befindet sich seit dem Panda Update #26 Schritt für Schritt auf dem Weg zur alten Sichtbarkeit.


    Verlierer Dezember 2013, Highlights 

    # Domain Veränderung Daten
    1 jako-o.de -56,21%
    2 usedom.de -46,54%
    3 apollo.de -45,99%
    4 toggo.de -43,07%
    5 peek-cloppenburg.de -27,25%

    Inhalte von usedom.de verlaufen im Sande

    Die Informationsseite der Sonneninsel Usedom konnte bis Anfang Dezember 2013 eine positive Entwicklung im SISTRIX Sichtbarkeitsindex vorweisen. Nun allerdings brachen die rankenden Keywörter auf der ersten Suchergebnisseite um mehr als die Hälfte weg, von 402 Keywörtern auf 179 im Zeitraum der KW 25.11.2013 – 09.12.2013. Bis jetzt kehrten erst 25 verlorene Keywörter wieder auf die erste Suchergebnisseite zurück. (Grafik)

    Grund dafür dürften die nicht weitergeleiteten Seiten zu ehemals guten Rankingpositionen, [campingplatz usedom] #1, sein. Hier verläuft das Ranking sprichwörtlich im Sande.

    404-Seite Usedom.de

    404-Seite von Usedom.de

    Apollo-Optik mit Relaunch und Soft-404 Fehlern

    Die Domain apollo.de hat einen Relaunch hinsichtlich optischer, als auch technischer, Natur vollzogen und erst im Nachhinein damit begonnen entsprechende Produktdetailseiten auf ihr jeweiliges Pendant der neuen URL-Struktur mittels einer 301-Weiterleitung umzuleiten. In Folge dessen wurde die Sichtbarkeit der Domain sowie gute Rankingpositionen in Mitleidenschaft gezogen.

    Sichtbarkeitsindex apollo.de

    Grüner Ereignis-PIN: Eigener Vermerk über analysierten Soft-404 Fehler.

    Als sog. Soft-404 Fehler bezeichnet Google Weiterleitungen, welche nicht auf ihr jeweiliges Pendant der neuen URL-Struktur umgeleitet wurden, sondern einfach auf die Startseite. Die neue Ziel-URL (die Startseite) ist für den entsprechenden Suchterm meistens nicht relevant und sollte demnach korrekt weitergeleitet werden oder den HTTP-Statuscode 404 zurückgeben.

    • Um einen derartigen Absturz einer Domain im SISTRIX Sichtbarkeitsindex zu erkennen und treffend zu analysieren, haben wir ein entsprechends Tutorial mit Schritt für Schritt Analysen geschrieben.

    Gewinner Januar 2014 

    # Domain Veränderung Daten
    1 null-provision.de +485,32%
    2 stellenmarkt.de +234,15%
    3 perfektegirls.com +232,46%
    4 einfachporno.com +228,17%
    5 porniac.de +209,79%
    6 kimeta.de +202,817%
    7 nurxxx.com +172,36%
    8 ra-wittig.de +168,06%
    9 sexwurst.tv +154%
    10 ergodirekt.de +153,96%
    11 huffingtonpost.de +147,62%
    12 abakus-internet-marketing.de +119,77%
    13 hallo-eltern.de +111,03%
    14 peek-cloppenburg.de +99,60%
    15 guenstiger-kredit24.de +93,95%

    Huffington Post weiter im Aufwind

    Das im September in Deutschland gestartete Angebot der Huffington Post, huffingtonpost.de, konnte gegenüber des Vormonats Dezember erneut an Sichtbarkeit gewinnen.

    peek-cloppenburg.de immer noch mit Overlay, aber mit steigender Sichtbarkeit

    Fashion ID (fashionid.de) ist der Online-Shop von Peek&Cloppenburg, auf den die Website peek-cloppenburg.de alle Erstbesucher mit einem nicht wegklickbaren Overlay begrüßt und daraufhin auch weiterleitet. Auch ohne Overlay werden Besucher von peek-cloppenburg.de gezwungen den neuen Shop fashionid.de zu besuchen.

    Dieser Umstand führte auch dazu, dass die Domain Platz 16 auf unserer IndexWatch 2013 Verlierer-Liste belegte.

    Vergleich des Sichtbarkeitsverlauf der Domain peek-cloppenburg.de zu fashionid.de

    Vergleich des Sichtbarkeitsverlauf der Domain peek-cloppenburg.de zu fashionid.de

    Dies wirft natürlich die Frage auf, warum die Domain peek-cloppenburg.de weiterhin rankt bzw. jetzt sogar an Sichtbarkeit gewonnen hat. Anhand des Rankings zum Keyword [cord herrenhose], aktuell auf der #5 Position (Grafik), ist zu erkennen, dass man von schlecht rankenden Archiv-Seiten dazu übergegangen ist, weiterhin klassische Produktdetailseiten unter der Domain peek-cloppenburg.de aufzubauen.
    Kaufen kann man die Artikel allerdings dann wirklich nur über fashionid.de.

    kimeta.de mit kurzem Schluckauf

    Der Stellemarkt kimeta.de kehrte im Januar nach einem kurzen Schluckauf im Sichtbarkeitsindex gegen Ende Dezember wieder auf das alte Niveau zurück. Aufgrund eines Fehlers bei einem Update wurde kurz vor Weihnachten eine falsche robots.txt hochgeladen, die allen Suchmaschinen den Zugriff auf die Domain versagte (siehe auch die dazugehörige Pressemitteilung). Zum Glück haben kimeta.de und Google schnell reagiert, so dass der Fehler bereits im Januar ausgebügelt werden konnte.


    Verlierer Januar 2014 

    # Domain Veränderung Daten
    1 germanblogs.de -52,47%
    2 destatis.de -46,30%
    3 frontlineshop.com -41,79%
    4 apotheken.de -41,71%
    5 aubi-plus.de -39,89%
    6 free2porno.com -38,48%
    7 pimptubed.com -37,77%
    8 gutscheine.de -37,61%
    9 der-postillon.com -37,07%
    10 trustedshops.de -36,41%
    11 panasonic.de -36,34%
    12 oldapps.com -35,98%
    13 yatego.com -34,37%
    14 disney.de -33,42%
    15 dsl-flatrate-angebote.de -32,46%

    Disney.de komplett neu aufgesetzt

    Am 17.01.2014 wurde der Relaunch von Disney.de bekannt gegeben. Sowohl optisch als auch inhaltlich habe man die Website komplett neu aufgesetzt und im Zuge dessen das Angebot disneychannel.de eingeführt.

    Vergleich Sichtbarkeitsverlauf von disney.de vs. disneychannel.de

    Vergleich Sichtbarkeitsverlauf von disney.de vs. disneychannel.de

    Die Doimain disney.de hat daraufhin deutlich an Sichtbarkeit verloren. Im Zuge des Relaunches wurden starke Verzeichnisse aufgegeben bzw. zugunsten des neuen Angebots disneychannel.de dorthin portiert. Allerdings hat man bis jetzt nur einen Bruchteil der entsprechenden Verzeichnisse und URLs auf das entsprechende Pendant von disneychannel.de oder disneystore.de weitergeleitet.

    So verlor die Domain beispielsweise die #1 Rankingposition zu dem Keyword [pixar cars], weil das entsprechende Verzeichnis nicht von www.disney.de/cars/ auf filme.disney.de/cars weiterleitet, sondern den User auf die Startseite von diney.de schickt.

    Ich vermute, dass dieser Relaunch ein etwas größeres Ausmaß hat und man derzeit eifrig dabei ist die entsprechenden Redirects zu setzen. Das Verzeichnis von [hannah montana] www.disney.de/hannah-montana-forever/ leitet zumindest schon einmal auf das neue Angebot shows.disneychannel.de/hannah-montana weiter.

    Damit schließt sich der IndexWatch 01/2014 & 02/2014 für diesen Monat. Wir werden natürlich auch weiterhin über die Veränderungen auf dem deutschen Suchmarkt berichten.

    The post IndexWatch 01/2014 & 02/2014 appeared first on SISTRIX.

    SISTRIX

  • Monthly Archives: Februar 2014

  • Google nimmt deutsche Linknetzwerke ins Visier

    1:07 am - Posted by admin Category:SEO + SEM

    Misst man die Bedeutung eines Rankingfaktor am Aufwand, den Google betreibt, um weiterhin nutzbare Daten als Grundlage für den Algorithmus zu haben, so ist zumindest klar: Links sind weiterhin elementarer Bestandteil guter Rankings. Google hat in den letzten Jahren versucht, schlechte Links automatisiert von Guten zu unterscheiden. Mit dem Penguin-Update ist ihnen das auch teilweise geglückt – allerdings auch nur teilweise und lückenhaft.

    Nun greift Google in Europa zu einer anderen Strategie und will Linknetzwerke, die Links im großen Stil an verschiedenen Kunden verkaufen, direkt ins Visier nehmen. Ein erster Schritt ist in Frankreich zu beobachten: Buzzea, ein von Cutts in einem Tweet genannten französisches Linknetzwerk wurde von Google entwertet und hat als Reaktion die Türen einfach dichtgemacht. In eher befremdlichen Duktus kündigt Matt Cutts nun auch,dass auch Deutschland in den Fokus rückt: “Heute Frankreich, bald Deutschland.

    Natürlich brodelt seitdem in Deutschland die Gerüchteküche: welche Netzwerke wird es wohl treffen? Wann wird Google zur Tat schreiten? Wird Google, wie in Frankreich, nur ein Netzwerk aus dem Spiel nehmen oder direkt mehrere? Wie blank die Nerven liegen, zeigt sich an einer Newsmeldung der Internetworld von heute. Dort wurden ein paar Namen von großen Linknetzwerken genannt – nach kurzer Zeit war der Artikel überarbeitet und frei von Firmennennungen.

    Eines ist jetzt allerdings schon klar: Google wird mit der Aktion dem Markt dabei helfen, sich zu professionalisieren, die Qualität zu steigern und in das nächste Level des Cutts-und-Maus-Spiels (einen Kalauer musste ich einfach unterbringen) aufzusteigen. Die Nachfrage nach guten Links wird dadurch allerdings ansteigen – ein Pyrrhussieg für Google.

    The post Google nimmt deutsche Linknetzwerke ins Visier appeared first on SISTRIX.

    SISTRIX