• E-commerce Solution

    Umsatz machen… … 24 Stunden am Tag, 365 Tage im Jahr. Die Anzahl der sogenannten Webshops oder eShops auf dem Marktplatz Internet steigt täglich an.

    Read More
  • Link Building

    Während bei der Onpage- oder Onsite-Optimierung einer Webseite vornehmlich die Struktur und der Inhalt optimiert werden, fokussiert man beim Linkaufbau in erster Linie das Umfeld der betreffenden Webseite. Beim Linkaufbau versucht man die Anzahl der auf die eigene Webseite verweisenden …

    Read More
  • Content Management

    Open Source Software aus Überzeugung Ein Tätigkeitsschwerpunkt von hauptsache.net ist die Entwicklung von Lösungen unter Verwendung von Open Source Software.

    Read More
  • Web Development

    Comming soon!

    Read More
  • SEO Consulting

    Wie „denken“ Suchmaschinen? Suchmaschinen arbeiten auf unterschiedliche Art und Weise. 

    Read More

    Tag Archives: einzelnen

  • Fallstudie: Linkprofil von einzelnen Verzeichnissen beachten

    Oktober 1, 2013 1:13 am - Posted by admin Category:SEO + SEM

    Diese Woche haben wir eine E-Mail mit der Bitte erhalten, die jüngsten Entwicklungen der Domains bergfreunde.de und parhsip.de in einem Blogpost zu analysieren.

    Entwicklung Sichtbarkeitsindex bergfreunde.de und parship.de

    Entwicklung Sichtbarkeitsindex bergfreunde.de und parship.de

    Man sieht bei beiden Domains einen ungewöhnlich starken Einbruch im Sichtbarkeitsindex in den beiden Wochen nach dem 16.09.2013. Wenn mehrere Domains zum gleichen Zeitpunkt eine ähnliche Entwicklung zeigen, stellen sich natürlich Fragen nach eventuell gemeinsamen Ursachen und Google Updates.

    Da sich SEOs häufig solchen Fragen ausgesetzt fühlen, greife ich den Vorschlag zu einem Blogpost gerne auf.

    Selbstverständlich ist es so, dass die Anzahl von zwei Domains zu gering ist, um daraus allgemeingültige Rückschlüsse zu bilden. Eine gemeinsame Entwicklung kann gemeinsame Ursachen haben, aber auch purer Zufall sein. Diskussionen an Einzelbeispielen sind wahrscheinlich auch der Grund, warum in vielen Foren sehr kontrovers diskutiert wird. Für jedes Einzelbeispiel lässt sich garantiert auch ein Gegenbeispiel finden, so dass die Diskussionen oft fruchtlos enden.

    Da Google im Jahr ca. 500 Updates durchführt und sich in jüngster Zeit mit Informationen zu den Updates stark zurückhält, wären Aussagen über ein mögliches Update zudem sehr spekulativ. Es bleibt uns also nicht anderes übrig, als einen tieferen Blick auf die Domains zu werfen und mögliche Theorien für den Rückgang der Sichtbarkeit zu entwickeln.

    In solchen Fällen beginne ich die Analyse immer gerne damit, eine Domain in mehreren Teilstücke zu zerlegen. Das können z.B. Hostnamen (Subdomains) oder Verzeichnisse sein. Auf diese Weise möchte ich herausfinden, ob alle Teilstücke gleichermaßen von einem Rückgang betroffen sind, oder nur bestimmte Teile der Domain. Im ersten Fall wäre der Rückgang eher auf domainweite Kennzahlen zurückzuführen, im zweiten Fall wäre hingegen wahrscheinlich ein konkreter Hostname oder ein bestimmtes Verzeichnis die Ursache. Auf diese Weise lassen sich viele Theorien schon einmal gut ausschließen.

    Schauen wir uns zuerst in SISTRIX Next die Entwicklung der stärksten Verzeichnisse bei bergfreunde.de an. Es lässt sich auf den ersten Blick erkennen, dass nicht alle Verzeichnisse gleichermaßen vom Rückgang betroffen sind. Vielmehr sind für das Verzeichnis www.bergfreunde.de/marken/ deutlich stärkere Rückgänge zu beobachten. Diese erfolgten zeitlich auch schon zu einem früheren Zeitpunkt.

    Sichtbarkeitsindex Verzeichnisse bergfreunde.de

    Sichtbarkeitsindex Verzeichnisse bergfreunde.de

    Ein ähnliches Bild zeigt die Analyse der Verzeichnisse von parship.de. Hier ist das Verzeichnis www.parship.de/themen/ stark betroffen, während die Verzeichnisse www.parship.de
    /leistungen/ und gay.parship.de/themen/ sogar an Sichtbarkeit zulegen konnten.

    Sichtbarkeitsindex Verzeichnisse parship.de

    Sichtbarkeitsindex Verzeichnisse parship.de

    Die domainweite Bewertung durch Google scheint also nicht primär die Ursache für die sinkende Sichtbarkeit der beiden Domains zu sein. Vielmehr sollten wir die Ursachen in den konkreten Verzeichnissen suchen. Schaut man sich die Keywords an, zu denen die Verzeichnisse Rankings erzielen, sieht man recht deutlich, dass es sich um sehr umkämpfte Keywords handelt.

    Gerade bei solchen kompetitiven Keywords lohnt es sich immer einen Blick auf die Backlinks zu werfen. Dieses machen wir aufgrund unserer ersten Analyse nicht für die gesamte Domain, sondern gezielt für die betroffenen Verzeichnisse.

    Für www.bergfreunde.de/marken/ liefert die Toolbox folgende Daten als häufigste Linktexte.

    Linktexte Verzeichnis www.bergfreunde.de/marken/

    Häufigste Linktexte Verzeichnis www.bergfreunde.de/marken/

    Es ist nicht ausgeschlossen, dass Google mit diesem Mix von Linktexten ein Problem hat. Unter den häufigsten Linktexten findet man zu hohen Anteilen Moneykeywords, mit denen eine Website normalerweise eher selten verlinkt wird. An dieser Stelle vermisst man Linktexte mit dem Markennamen, Domainnamen bzw. URLs oder Texten wie „hier“, die das Linkprofil wesentlich natürlicher erscheinen ließen.

    Das gleiche Bild zeigt sich bei dem Verzeichnis www.parship.de/themen/. Auch hier findet man sehr viele Moneykeywords und der Mix der Linktexte wirkt nicht unbedingt organisch.

    Häufigste Linktexte Verzeichnis www.parship.de/themen/

    Häufigste Linktexte Verzeichnis www.parship.de/themen/

    Eine mögliche Theorie zur Erklärung der Rückgänge im Sichtbarkeitsindex wäre damit gefunden. Eventuell sollte man nicht nur für die gesamte Domain auf ein natürliches Linkprofil achten, sondern auch gezielt bei einzelnen Verzeichnissen. Wann ein Linkprofil unnatürlich wirkt, habe ich vor einigen Wochen in einem Video „Wie prüft man, ob eine Website vom Google Penguin Update 2.0 betroffen ist?“ verdeutlicht.

    Matt Cutts hat das Google Penguin Update 2.0 als „more comprehensive” und “deeper targeting” bezeichnet. Eventuell sehen wir bei den beiden Domains eine neue Iteration vom Penguin 2.0, bei dem stärker auch einzelne Verzeichnisse bewertet werden. Ebenso gut könnte es sich aber auch um eine manuelle Maßnahme von Google handeln oder es wurden weitere Linknetzwerke aufgedeckt. Backlinks als grundsätzliche Ursache für den Sichtbarkeitsverlust dieser beiden Domains in Betracht zu ziehen, scheint nach einem ersten Blick auf die Daten durchaus plausibel.

    Wie eingangs erläutert, kann eine solche Aussage ohne ein offizielles Statement von Google und auf Grundlage von nur zwei Domains maximal eine von mehreren möglichen Theorie sein. Als verantwortlicher SEO sollte man weitere Theorien aufstellen und nach Analyse aller Daten und Fakten entscheiden, mit welchen Maßnahmen man die Website „behandeln“ möchte, um die Rankings „gesunden“ zu lassen. Erscheinen mehrere Theorien plausibel, ist es oftmals für eine schnelle Heilung nicht verkehrt, die Website auch gleichzeitig auch auf mehrere infrage kommende Ursachen zu behandeln.

    The post Fallstudie: Linkprofil von einzelnen Verzeichnissen beachten appeared first on SISTRIX.

    SISTRIX

  • Tag Archives: einzelnen

  • Aussagekraft von Korrelationsanalysen zu einzelnen Google-Rankingfaktoren

    Januar 22, 2013 7:49 pm - Posted by admin Category:SEO + SEM

    Anfang der Woche relativierte Rand Fishkin in seinem Blogpost „What Do Correlation Metrics Really Tell Us About Search Rankings?“ die Aussagekraft der SEOmoz Korrelationsstudie zu den einzelnen Google-Rankingfaktoren. Indem er einige Fehler eingesteht, beweist Rand viel Courage und zeigt auf sympathische Weise, dass sich auch ein international anerkannter SEO-Guru einmal irren kann.

    In den vergangenen zwei Jahren haben diverse Korrelationsanalysen im SEO-Bereich für viel Verwirrung und beherzte Diskussionen gesorgt. Es ist begrüßenswert, dass der „Vater dieser Studien“ jetzt für mehr Klarheit sorgt. Wir haben den Blogpost von Rand zum Anlass genommen, mit dem Statistik-Experten Dr. Steffen Wagner ein Interview über die Probleme und Herausforderungen bei statistischen Analysen der Rankingfaktoren zu führen.

    SISTRIX: Hallo Herr Dr. Wagner, wollen Sie sich unseren Lesern kurz vorstellen?

    Wagner: Hallo, mein Name ist Steffen Wagner. Ich arbeite als Statistiker in der vor knapp zwei Jahren aus der Freien Universität Berlin ausgegründeten Beratungsgesellschaft INWT Statistics GmbH. Unser Name „INWT – In Numbers We Trust“ ist Programm: unsere Beratungsleistung liegt in der quantitativen, datengetriebenen Analyse und darauf aufbauenden Prognosen in den Bereichen CRM und Online-Marketing.

    SISTRIX: Im Jahr 2011 wurde von SEOmoz eine Studie veröffentlicht, welche anhand von Korrelationsanalysen die Beziehungen zwischen beobachteten Rankingpositionen und verschiedenen Eigenschaften der Treffer untersucht hat. Der gleiche Untersuchungsansatz wurde 2012 von Searchmetrics für die Suchergebnisse in Deutschland wiederholt. Wie schätzen Sie als Statistik-Experte diese Studien ein?

    Wagner: Die von Ihnen angesprochenen Studien messen die Korrelationsstärke zwischen Google Rankings und einzelnen erklärenden Variablen. Bei der Interpretation von Korrelationsstärken ist generell eine gewisse Vorsicht geboten, da eine Korrelation zunächst nur das gemeinsame Auftreten bestimmter Ausprägungen misst, was nicht zwangsläufig auch eine Kausalität bedeuten muss. Deshalb sollten hinter den Korrelationen vermutete Kausalitäten kritisch hinterfragt werden: Stimmt die Wirkungsrichtung? Gibt es sachlogische Argumente, die die vermutete Kausalität stützen, oder eher unplausibel erscheinen lassen? Gibt es unberücksichtigte Einflussfaktoren, die zu einer Scheinkausalität führen könnten? So ist ja auch die Anzahl der Störche und die Geburtenrate korreliert, was sich bei genauerem Hinsehen aber durch den Grad der Urbanisierung der untersuchten Regionen sehr plausibel erklären lässt.

    SISTRIX: Die Rangfolge der gemessenen Korrelationen entspricht nicht der Rangfolge der wichtigsten Rankingfaktoren in der gängigen SEO-Theorie. Für Facebook-Signale konnte beispielsweise in beiden Studien eine hohe Korrelation zu den Rankingpositionen gemessen werden, wohingegen der Faktor „Keyword im Title“ bei beiden Studien sogar leicht negativ korreliert. Die meisten SEO-Experten würden sagen, dass das Keyword im Titel-Tag zu den wichtigsten Rankingfaktoren gehört. Wie lassen sich diese Unterschiede erklären?

    Wagner: Damit führen Sie die eben angesprochenen sachlogischen Argumente ins Feld, die einer kausalen Interpretation der beobachteten Korrelationen entgegenstehen. Im Fall der Facebook-Signale stellt sich mir die Frage, ob diese das Google-Ranking beeinflussen oder ob nicht umgekehrt eine gute Sichtbarkeit bei Google ebenfalls eine höhere Aufmerksamkeit bei Facebook nach sich ziehen könnte. Somit stellt sich die Frage der Wirkungsrichtung. Zusätzlich muss geprüft werden, ob eine Scheinkausalität vorliegt. Es erscheint ja auch durchaus plausibel, dass eine gemeinsame dritte Variable, wie die Qualität des Contents, für die Beachtung bei Google und Facebook gleichermaßen verantwortlich sein könnte. Die von Experten nicht erwartete schwache Korrelation des Faktors „Keyword im Title“ kann mehrere Ursachen haben: Zum einen misst der Spearman Koeffizient nur monotone Zusammenhänge und es stellt sich die Frage, ob nach dem Google Brand Update Ende 2009 überhaupt noch ein solcher monotoner Zusammenhang besteht. Zum anderen handelt es sich bei „Keyword im Title“ um eine binäre Variable (Keyword vorhanden: ja/nein), was – zurückhaltend formuliert – für die Anwendung der Spearman-Korrelation ungünstig ist. Da die gefundene negative Korrelation zusätzlich sehr klein, d.h. nahe Null ist, muss geprüft werden, inwieweit dies ein zufälliger Effekt ist, und ob sich das negative Vorzeichen mit verändertem Keyword-Set reproduzieren lässt.

    SISTRIX: Rand Fishkin schreibt in seinem aktuellen Blogpost, dass er in seiner Studie zumindest teilweise Fehler gemacht und die Korrelationsdaten fälschlicherweise als Rankingfaktoren bezeichnet hat. Wurden die wesentlichen Kritikpunkte jetzt erkannt oder fehlen Ihnen noch wichtige Punkte, die für zukünftige Studien zu berücksichtigen sind? Wie könnte man den bisherigen Untersuchungsansatz verbessern?

    Wagner: Aus statistischer Sicht ist es auf jeden Fall begrüßenswert, wenn bei der Präsentation von Korrelationsanalysen der Unterschied zwischen Korrelation und kausalem Zusammenhang aufgezeigt wird, so dass der Leser klar zwischen den Fakten wie der Korrelationsstärke und darauf aufbauenden möglichen Erklärungsansätzen unterscheiden kann. Generell sollte auch der Übergang von univariaten zu multivariaten Analysen und Methoden vollzogen werden, da die in den Studien untersuchten Faktoren ja auch untereinander sehr stark korreliert sind. Erst die gemeinsame Betrachtung aller Faktoren erlaubt es, den Einfluss dieser zusätzlichen Korrelationsstruktur auf die Rankings zu berücksichtigen. Von besonderem Interesse wäre die wiederholte Erfassung der den Studien zugrunde liegenden Daten in entsprechend kurzen Zeitabständen. Anhand solcher Zeitreihen könnte man dann herausarbeiten, inwieweit Schwankungen des als kausal wirkend postulierten Rankingfaktors Schwankungen im Google-Ranking erklären können, oder auch eben nicht. Im letzteren Fall wäre dann die Hypothese des als kausal postulierten Zusammenhangs zu verwerfen und die Scheinkausalität identifiziert. Definiert man ‚kausal‘ zusätzlich dahingehend, dass die kausale Ursache zeitlich vor der induzierten Reaktion liegen muss, bieten solche Daten die Möglichkeit die Wirkungsrichtung des kausalen Zusammenhangs zu bestimmen. Man würde also prüfen, ob eine Änderung der Facebook-Signale einer Änderung der Rankings vorausgeht, oder ob umgekehrt, zuerst die Änderung des Rankings zu beobachten ist.

    SISTRIX: Warum ist es so schwer mit statistischen Methoden dem Google-SERP-Algorithmus auf die Schliche zu kommen?

    Wagner: Diese Schwierigkeit hat meiner Meinung nach zwei Gründe: Zum einen präsentiert Google ja lediglich die Reihenfolge der Ergebnisse, nicht aber den diesem Ranking zugrunde liegenden ‚wirklichen‘ Abstand zwischen den angezeigten Ergebnissen. Dies stellt aus statistischer Sicht eine starke Einschränkung bzgl. der in Frage kommenden Analyseverfahren dar. Zum anderen ist Google in der Lage das Verhalten der User auf den angesteuerten Ergebnisseiten direkt über Metriken wie Bounce Rate oder Time-On-Site zu messen und zur Beurteilung der Relevanz des Contents zu verwenden. Solange diese Engagement-Daten der statistischen Analyse nicht zur Verfügung stehen, ist es auch nicht möglich ihren Einfluss auf den Algorithmus zu quantifizieren und vom Einfluss anderer Rankingfaktoren zu unterscheiden.

    SISTRIX: Vielen Dank für das Interview!

    Das Interview führte Hanns Kronenberg

    The post Aussagekraft von Korrelationsanalysen zu einzelnen Google-Rankingfaktoren appeared first on SISTRIX.

    SISTRIX

  • Tag Archives: einzelnen

  • Aussagekraft von Korrelationsanalysen zu einzelnen Google-Rankingfaktoren

    Januar 16, 2013 7:12 pm - Posted by admin Category:SEO + SEM

    Anfang der Woche relativierte Rand Fishkin in seinem Blogpost „What Do Correlation Metrics Really Tell Us About Search Rankings?“ die Aussagekraft der SEOmoz Korrelationsstudie zu den einzelnen Google-Rankingfaktoren. Indem er einige Fehler eingesteht, beweist Rand viel Courage und zeigt auf sympathische Weise, dass sich auch ein international anerkannter SEO-Guru einmal irren kann.

    In den vergangenen zwei Jahren haben diverse Korrelationsanalysen im SEO-Bereich für viel Verwirrung und beherzte Diskussionen gesorgt. Es ist begrüßenswert, dass der „Vater dieser Studien“ jetzt für mehr Klarheit sorgt. Wir haben den Blog…
    Suchmaschinen- und SEO-Blog – SISTRIX GmbH