• E-commerce Solution

    Umsatz machen… … 24 Stunden am Tag, 365 Tage im Jahr. Die Anzahl der sogenannten Webshops oder eShops auf dem Marktplatz Internet steigt täglich an.

    Read More
  • Link Building

    Während bei der Onpage- oder Onsite-Optimierung einer Webseite vornehmlich die Struktur und der Inhalt optimiert werden, fokussiert man beim Linkaufbau in erster Linie das Umfeld der betreffenden Webseite. Beim Linkaufbau versucht man die Anzahl der auf die eigene Webseite verweisenden …

    Read More
  • Content Management

    Open Source Software aus Überzeugung Ein Tätigkeitsschwerpunkt von hauptsache.net ist die Entwicklung von Lösungen unter Verwendung von Open Source Software.

    Read More
  • Web Development

    Comming soon!

    Read More
  • SEO Consulting

    Wie „denken“ Suchmaschinen? Suchmaschinen arbeiten auf unterschiedliche Art und Weise. 

    Read More

    Monthly Archives: Januar 2013

  • 2013 – Erwartungen & Vorschau

    Januar 28, 2013 8:14 pm - Posted by admin Category:SEO + SEM

    Entgegen dem allgemeinen Trend, Jahresrückblicke und Vorschauen bereits im Spätsommer zu veröffentlichen, habe ich mir dafür etwas mehr Zeit gelassen. Und da Entwicklung in der Vergangenheit auch erst mit etwas Abstand interessant wird, möchte ich diesen Teil gleich ganz überspringen und gemeinsam mit Euch in meine Glaskugel für das kommende Jahr schauen.

    SEO-Konferenzen vs. noch mehr SEO-Konferenzen
    Habe ich dieses Jahr nachwuchsbedingt nur wenige SEO-Konferenzen besucht und das Thema deshalb etwas aus den Augen verloren, wird mit der Jahresplanung 2013 schnell deutlich, dass wir in Deutschland bald mehr Konferenzen als Vollerwerbs-SEOs haben. Diese Entwicklung beobachte ich mit gemischten Gefühlen: zum einen ist es natürlich toll, dass das Thema zu begeistern weiß, der Markt stetig wächst und unserer Branche das alljährlich prophezeite Ende doch nicht kurz bevor steht. Auf der anderen Seite ist es aber auch so, dass es inhaltlich nicht mehr so große Sprünge gibt, als dass diese monatliche Konferenzen gerechtfertig sind. So habe ich dieses Jahr in Gesprächen schon häufig Unmut darüber rausgehört, dass einige Vortragenenden mit gleichen oder sehr ähnlichen Präsentationen und Themen von Konferenz zu Konferenz ziehen. Allgemeine SEO-Konferenzen werden 2013 nicht mehr den Zuspruch erfahren, wie es in den letzten Jahren der Fall war. Dies wird vermutlich zu zwei Entwicklungen führen: entweder geht die Ausrichtung dahin, dass Spezialgebiete behandelt werden und sehr tiefgreifendes Expertenwissen vermittelt wird oder aber die Entwicklung geht in die andere Richtung und ehemals reine SEO-Konferenzen öffnen sich für andere Besuchergewinnungs- und Marketing-Methoden.

    Google vs. SEO-Tools
    Nachdem Google vor ein paar Wochen seine Google AdWords API TOS in den USA gegenüber zwei Anbietern von SEO-Software durchgesetzt hat, wurde gerade in Deutschland das baldige Ende des Abendlandes ausgerufen. Nachdem die Hysterie jetzt verflogen ist, kurz meine Einschätzung der Sache: ich kann mir nicht vorstellen, dass Google ein ernsthaftes Interesse daran hat, transparenzschaffende Marktbeobachter zu bedrängen. Hier scheint die Rechtsabteilung von Google recht kurzsichtig gehandelt zu haben und ich bin mir sicher, dass dieses Vorgehen weder im Sinne von Google noch im Sinne der Wettbewerbshüter in den USA und Europa ist. Als Google-Aktionär schätze ich das langfristige und besonnene Handeln von Google und sehe keinen Anlass, dass sich dies nun ändert.

    Authorship vs. Soziale Signale
    Das kommende Jahr scheint mir ein guter Zeitpunkt für Google zu sein, um über Alternativen und Erweiterungen zu den altbekannten Links als Rankingfaktor nachzudenken. Hat man dieses Jahr mit dem Pinguin-Update die Qualität innerhalb des Linkgraphens wieder auf erträgliches Niveau erhöhen können, wird das nicht ewig gut gehen. Naheliegende Alternativen sind zum einen Autorenvernüpfungen und zum anderen Soziale Signale. Die Anreicherung des Linkgraphens um den Autor hat den großen Vorteil, dass die Qualität der Links in der Regel überdurchschnittlich groß sein wird. Der Nachteil wird vermutlich sein, dass die Anzahl der Autoren, die an dem System teilnehmen begrenzt ist. Bei den Social Signals hat Google zwar eine deutlich größere Menge an Teilnehmern/Signalen, die Qualität dieser dürfte aber unterdurchschnittlich sein: quasi eine Entscheidung zwischen dem inhaltlichen Niveau von Cicero und Bild-Zeitung. Ich bin gespannt, wie Google sich entscheidet.

    The post 2013 – Erwartungen & Vorschau appeared first on SISTRIX.

    SISTRIX

  • Monthly Archives: Januar 2013

  • IndexWatch 2012: Gewinner

    1:12 am - Posted by admin Category:SEO + SEM

    Wie bereits in den letzten Jahren, so möchte ich auch diesen Jahreswechsel nutzen, um im IndexWatch 2012 die Auf- und Absteiger im Google-Index zu veröffentlichen. Auf Basis des SISTRIX Sichtbarkeitsindex werden jeweils 50 Domains mit sehr starken Gewinnen und 50 Domains mit starken Verlusten aufgelistet und teilweise kommentiert. Domains, deren Gewinne/Verluste durch einen Domainumzug hervorgerufen wurden, habe ich (hoffentlich) aus der Liste entfernt, wenn keine interessante Entwicklung dahinter stand. Los geht es heute mit den 50 Gewinnern 2013:

    Gewinner

    # Domain Veränderung
    1 dred.com &gt +1.000% \"Domaininfo\"
    2 pinterest.com &gt +1.000% \"Domaininfo\"
    3 tagesgeldvergleich.com &gt +1.000% \"Domaininfo\"
    4 allrecipes.com &gt +1.000% \"Domaininfo\"
    5 banköffnungszeiten.de &gt +1.000% \"Domaininfo\"
    6 peek-cloppenburg.de &gt +1.000% \"Domaininfo\"
    7 milanoo.com +924% \"Domaininfo\"
    8 bellmundo.de +887% \"Domaininfo\"
    9 blogtotal.de +847% \"Domaininfo\"
    10 zuhause.de +767% \"Domaininfo\"
    11 prosiebengames.de +767% \"Domaininfo\"
    12 duden.de +614% \"Domaininfo\"
    13 bildspielt.de +597% \"Domaininfo\"
    14 asos.de +582% \"Domaininfo\"
    15 sheego.de +576% \"Domaininfo\"
    16 heilpraxisnet.de +463% \"Domaininfo\"
    17 galeria-kaufhof.de +447% \"Domaininfo\"
    18 webutation.net +445% \"Domaininfo\"
    19 gutscheinrausch.de +436% \"Domaininfo\"
    20 samsung.com +418% \"Domaininfo\"
    21 pc-magazin.de +410% \"Domaininfo\"
    22 wimdu.de +396% \"Domaininfo\"
    23 geboren.am +395% \"Domaininfo\"
    24 tape.tv +394% \"Domaininfo\"
    25 hornbach.de +388% \"Domaininfo\"
    26 tumblr.com +374% \"Domaininfo\"
    27 twenga.de +353% \"Domaininfo\"
    28 campz.de +330% \"Domaininfo\"
    29 kununu.com +315% \"Domaininfo\"
    30 einfach-sparsam.de +302% \"Domaininfo\"
    31 yelp.com +301% \"Domaininfo\"
    32 twitter.com +300% \"Domaininfo\"
    33 nextag.de +298% \"Domaininfo\"
    34 anleiter.de +290% \"Domaininfo\"
    35 handy-deutschland.de +288% \"Domaininfo\"
    36 spiegel.tv +277% \"Domaininfo\"
    37 witt-weiden.de +276% \"Domaininfo\"
    38 pons.eu +275% \"Domaininfo\"
    39 123gif.de +273% \"Domaininfo\"
    40 lidl.de +273% \"Domaininfo\"
    41 bing.com +266% \"Domaininfo\"
    42 symptomat.de +261% \"Domaininfo\"
    43 fuersie.de +255% \"Domaininfo\"
    44 einstieg.com +253% \"Domaininfo\"
    45 forbes.com +252% \"Domaininfo\"
    46 interchalet.de +251% \"Domaininfo\"
    47 nachrichten.de +245% \"Domaininfo\"
    48 linguee.com +235% \"Domaininfo\"
    49 redcoon.de +228% \"Domaininfo\"
    50 sonnenklar.tv +217% \"Domaininfo\"

    DrEd.com (nicht mit Mr. Ed zu verwechseln) ist eine Internet-Praxis, deren Ärzte auch Rezepte ausstellen dürfen. Die Internetseite war in den letzten 12 Monaten der prozentual größte Gewinner im Googleindex. Eine durchaus beachtliche Entwicklung, wenn man bedenkt, dass der Anbieter bei Keywords wie „Erektionsprobleme“ oder „Potenzmittel kaufen“ durchaus starken Wettbewerb hat, der sich nicht immer an die Google-Richtlinien zum Linkaufbau hält. Erfolgreiche Online-PR scheint DrEd.com zahlreiche gute Links von Domains wie Welt.de, Heise.de oder Zeit.de beschert zu haben und auch die Onpage-Arbeit sieht solide aus.

    Zwei Anbieter, die ihre Nutzer eigentlich über andere Kanäle erhalten sollten, sich aber wohl trotzdem über den ein oder anderen organischen Google-Visit freuen: Pinterest und Twitter haben in diesem Jahr stark zugelegt. Bei Pinterest.com scheint dies nicht so verwunderlich, ist dieses Netzwerk doch noch sehr neu und hat durch die massive Medienpräsenz weltweit eine große Menge hochwertiger Links mitgenommen. Twitter hat sowohl im Sichtbarkeitsindex als auch in der Anzahl der indexierten Seiten im vergangenen Jahr deutlich zugelegt. Vielleicht hat Google hier ein gesteigertes Interesse an den Social Signals, die sich auf der Domain verbergen und leitet den Crawler deswegen gezielt etwas intensiver auf Twitter.com.

    Interessante Entwicklungen gibt auch aus dem Bildungssektor zu vermelden: mit Duden.de (Sichtbarkeitsindex) und Pons.eu (Sichtbarkeitsindex) gehören zwei bekannte Marken zu den Aufsteigern 2012. Ist auf der einen Seite sicherlich eine solide SEO-Arbeit das Fundament für den Erfolg, so konnte auf der anderen Seite die starke und bekannte Marke bei den zahlreichen Google-Updates der letzten Monate helfen: Klickrate, Verweildauer und allgemeines Wertempfinden setzen sich hier durch – gerade bei Namen, die den Nutzern (hoffentlich) seit den Schultagen bekannt sind.

    Aber auch in anderen Branchen konnten Offline-Marken im letzten Jahr deutliche Gewinne für ihre Online-Präsenz verbuchen: bei Peek-Cloppenburg.de hat man offenbar erkannte, dass es neben dem Markennamen noch weitere interessante Suchbegriffe gibt, für die man ranken kann. So ist das Unterverzeichnis „/marke“ nun das stärkste Verzeichnis der ganzen Domain und ist für zahlreiche interessante Markennamen und –Kombinationen in den Top-10 zu finden. Nachdem Galeria-Kaufhof.de gegen Mitte des letzten Jahres, mit der globalen Ausspielung von Panda, stark Federn lassen musste, scheint man dort in diesem Jahr die richtigen Schlüsse gezogen zu haben und ist jetzt stärker in Google sichtbar als jemals zuvor. Auch der Männerausstatter Hornbach.de hat sich nach langer Zeit der Stagnation im Sichtbarkeitsindex auf interessante, generische Keywords gestürzt und rankt mit der Domain nun zu viele relevanten Suchbegriffen der Zielgruppe unter den ersten Treffern. Spannend wird im kommenden Jahr wohl auch das Sichtbarkeits-Rennen zwischen den eng verbandelten Offline-Firmen Saturn und Mediamarkt sowie dem Onlineableger Redcoon: bei allen drei Domains kann man zum Jahresende stark positive Entwicklungen verzeichnen und es scheint, dass die Zeichen der Zeit hier erkannt wurden.

    Interessant finde ich noch die Entwicklung von Yelp und Qype: war Yelp auf dem deutschen Markt ursprünglich angetreten, um den Platzhirsch Qype vom Thron zu stoßen, haben die Amerikaner Qype vor einigen Wochen übernommen und sind seitdem mit drei Domains in den SERPs vertreten: yelp.de, yelp.com und qype.com. Die dort hinterlegten Daten dürften durch die Übernahme zukünftig ähnlicher werden (Duplicate-Content-Problematik) und vor dem Hintergrund, dass auch Google ein starkes Interesse an dem Thema lokale Bewertungen hat, könnte ich mir vorstellen, dass ausschließlich im Sinne der Qualität und des Nutzers im nächsten Jahr weniger Besucher schlussendlich auf einem der Portale landen werden …

    Soviel erst mal zu den Gewinner des vergangenen Jahres. Bevor es morgen mit den Verlierern weitergeht, wünsche ich einen guten Rutsch ins neue Jahr und nur die besten Rankings.

    The post IndexWatch 2012: Gewinner appeared first on SISTRIX.

    SISTRIX

  • Monthly Archives: Januar 2013

  • IndexWatch 2012: Verlierer

    Januar 27, 2013 7:40 am - Posted by admin Category:SEO + SEM

    Ging es gestern um die Aufsteiger im Google-Index des letzten Jahres, soll es heute um die Absteiger gehen. Wie auch bei den Aufsteigern 50 Domains zusammengestellt, die prozentual sehr stark an Sichtbarkeit in den Google SERPs verloren haben. Domainumzüge habe ich dabei soweit es geht aus der Liste herausgestrichen (sofern sie keinen interessanten Hintergrund haben). Los geht’s.

    Verlierer

    # Domain Veränderung
    1 dating-vergleich.de -100% \"Domaininfo\"
    2 kredit-magazin.com -100% \"Domaininfo\"
    3 versicherungsvergleich.de -99% \"Domaininfo\"
    4 lyrics.de -99% \"Domaininfo\"
    5 preisroboter.de -98% \"Domaininfo\"
    6 top-dsl.com -97% \"Domaininfo\"
    7 dsl–flatrate.de -95% \"Domaininfo\"
    8 chrono24.com -95% \"Domaininfo\"
    9 presents4friends.com -95% \"Domaininfo\"
    10 tagesgeld.org -95% \"Domaininfo\"
    11 wirtschaftslexikon24.net -95% \"Domaininfo\"
    12 dpaq.de -94% \"Domaininfo\"
    13 zahnweissinfo.com -94% \"Domaininfo\"
    14 partnervermittlung-24.net -93% \"Domaininfo\"
    15 gamestats.org -92% \"Domaininfo\"
    16 autoversicherung-online.info -92% \"Domaininfo\"
    17 neckermann.de -92% \"Domaininfo\"
    18 preisvergleich.org -91% \"Domaininfo\"
    19 trauersprueche.org -91% \"Domaininfo\"
    20 gratis-gedicht.de -89% \"Domaininfo\"
    21 webnews.de -89% \"Domaininfo\"
    22 indeed.de -89% \"Domaininfo\"
    23 diabetes-news.de -89% \"Domaininfo\"
    24 weihnachtsideen24.de -89% \"Domaininfo\"
    25 tradoria.de -88% \"Domaininfo\"
    26 finanzen.de -88% \"Domaininfo\"
    27 bankleitzahlen.ws -87% \"Domaininfo\"
    28 mobello.de -86% \"Domaininfo\"
    29 nordclick.de -86% \"Domaininfo\"
    30 russlandjournal.de -85% \"Domaininfo\"
    31 softwareload.de -85% \"Domaininfo\"
    32 dotgames.de -85% \"Domaininfo\"
    33 mba-ratgeber.de -85% \"Domaininfo\"
    34 nextag.com -85% \"Domaininfo\"
    35 prepaid-discounter.de -85% \"Domaininfo\"
    36 prisma.de -85% \"Domaininfo\"
    37 krankenkasseninfo.de -84% \"Domaininfo\"
    38 dsl-flatrate-abc.de -83% \"Domaininfo\"
    39 lablue.de -83% \"Domaininfo\"
    40 witze.net -82% \"Domaininfo\"
    41 preis.de -82% \"Domaininfo\"
    42 jobscanner.de -81% \"Domaininfo\"
    43 spruch-und-wunsch.de -81% \"Domaininfo\"
    44 finanzcheck.de -81% \"Domaininfo\"
    45 kochrezepte.de -80% \"Domaininfo\"
    46 tellows.de -80% \"Domaininfo\"
    47 spruecheportal.de -80% \"Domaininfo\"
    48 apomio.de -79% \"Domaininfo\"
    49 testeo.de -79% \"Domaininfo\"
    50 schlecker.com -77% \"Domaininfo\"

    Penguin
    Eines der größten SEO-Themen 2012 war sicherlich das Penguin-Update. Hinter dem possierlichen Namen verbirgt sich eine weitere Anstrengung Googles, SEO-Methoden, die nicht den Google Webmaster Richtlinien entsprechen, zu betrafen. Schaut man sich die Top-50 Liste an, scheint Google hier nicht komplett danebengegriffen zu haben: bei sehr vielen Domains ist am Datum des Penguin-Updates ein deutlicher Abfall der Sichtbarkeit zu verzeichnen. Ein Blick auf übliche Auslöser dieses Filters zeigt dann auch häufig einen gemeinsamen Auslöser: massiv unnatürlicher Linkaufbau.

    Panda-Iterationen
    Aber auch das Update-Thema des Jahres 2011 hat uns in den letzten Monaten nicht losgelassen: regelmäßig spielt Google neue Iterationen und Verbesserungen des Panda-Algorithmus ein und erhöht die Treffergenauigkeit dieses Filters damit. Die Wahrscheinlichkeit, dass Seiten, die einmal von Panda betroffen waren dann auch bei den nächsten Updates wieder dabei sind, ist relativ hoch, wie zahlreiche Domains aus der Liste zeigen.

    Preisvergleiche
    Googles Verhältnis zu Preisvergleichen, die nicht aus dem eigenen Haus stammen, scheint sich auch 2012 nicht grundlegend verbessert zu haben. Sind mit Preisroboter.de, Preis.de, Preisvergleich.org und Nextag.com doch mindestens 4 allgemeine und einige spezialisierte Preisvergleiche in der Top-50-Liste zu finden. Besonders Preisroboter.de hat es in den letzten Monaten stark getroffen. Hatte die Domain Ende 2008 noch einen Sichtbarkeitsindex von rund 400 Punkten, sind 4 Jahre später gerade einmal 1,17 Punkte übrig. Der Sichtbarkeitsindexverlauf zeigt für die Domain seit 2009 eine dauerhaft abfallende Tendenz. Seit Google die Updates öffentlich kommuniziert (und wir sie mit den Ereignis-Pins in der Toolbox anzeigen), lassen sich mögliche Ursachen gut feststellen: bei fast jeder Panda-Iteration gab es einen weiteren Verlust an Sichtbarkeit. Google passt seine Algorithmen also immer weiter an und Seiten wie Preisroboter.de scheinen genau in das Raster der ungewünschten Seiten zu passen.

    Domainumzüge
    Eigentlich sollte man meinen, dass der Umzug von einer auf eine andere Domain mittlerweile sowohl für Webseitenbetreiber als auch für Google Routine ist: eventuell Daten kopieren, fixe 301-Weiterleitung auf URL-Basis einrichten, DNS-Einträge updaten und alles wird gut. Trotzdem zeigt sich regelmäßig, dass Stolpersteine vorhanden sind und auch mitgenommen werden. In dieser Liste sticht zum Beispiel die Domain tradoria.de hervor: nach der Übernahme durch Rakuten sollte es wohl auch in Deutschland auf der rakuten.de weitergehen. Allerdings hat der Umzug nicht wirklich gut geklappt, da mittlerweile beide Domains im Google-Index vertreten sind und der addierte Sichtbarkeitsindex deutlich unter dem einstigen Wert von tradoria.de alleine liegt.

    Insolvenzen
    Zwei Domains in der Liste sind dort nicht ganz freiwillig zu finden: Sowohl Neckermann.de als auch Schlecker.com mussten im vergangenen Jahr Insolvenz beantragen. Als Folge haben leider auch die jeweils mühsam aufgebauten Internetseiten der beiden Konzerne gelitten: Google hat schnell reagiert und die Sichtbarkeit der beiden Domains deutlich zurückgestuft.

    The post IndexWatch 2012: Verlierer appeared first on SISTRIX.

    SISTRIX

  • Monthly Archives: Januar 2013

  • Google entgeht Wettbewerbsklage in den USA

    Januar 26, 2013 1:24 pm - Posted by admin Category:SEO + SEM

    Eine Entscheidung, mit der so vermutlich die wenigsten SEOs gerechnet hätten: die US-Kartellbehörde stellt ihr Verfahren ein. Es konnten keine Beweise gefunden werden, dass Google seine eigenen Angebote in den SERPs bevorzuge, so die offizielle Stellungnahme. Damit dürfte zumindest in den USA für Google die größte Gefahr vorerst gebannt sein und eine (deutliche) Ausweitung der zahlreichen vertikalen Angebote in diesem Jahr anstehen.

    Interessant ist in diesem Zusammenhang, dass in den 19 Monaten, seit denen das Verfahren jetzt lief, Google seine Transparenz für Algorithmus-Änderungen massiv ausgebaut hat. Größere Index-Updates bekommen jetzt lustige Tiernamen und Google kommuniziert transparent jede noch so kleine Änderung über Blogpostings oder Matt Cutts. Ich bin gespannt, ob sich diese Transparenz-Offensive trotz der Einstellung des Verfahrens in den nächsten Monaten vorsetzt. Im Google InsideSearch-Blog sind seit Anfang Oktober jedenfalls keine Zusammenfassungen zu dem Thema veröffentlicht worden …

    The post Google entgeht Wettbewerbsklage in den USA appeared first on SISTRIX.

    SISTRIX

  • Monthly Archives: Januar 2013

  • Analyse der Bedeutung von Backlinks für den SEO-Erfolg

    Januar 25, 2013 7:26 pm - Posted by admin Category:SEO + SEM

    Nach der gängigen SEO-Theorie gehören Links von externen Domains (Backlinks) zu den wichtigsten Rankingfaktoren. Ziel dieses Beitrages ist es, den Zusammenhang zwischen Sichtbarkeitsindex und Backlinks zu untersuchen.

    Fischerländer-Diagramm für 10.000 Domains
    In Anlehnung an das Fischerländer-Diagramm (Trust-Efficiency-Diagramm von Stefan Fischerländer) habe ich ein Streudiagramm mit den Werten von 10.000 Domains erstellt, um die Bedeutung des Faktors „Backlinks“ zu analysieren. Ein Streudiagramm verdeutlich die Zusammenhänge besser als die reine Darstellung eines Korrelationskoeffizienten. Dieser ist für viele Menschen erst einmal abstrakt und weniger griffig und wird daher oft falsch interpretiert. In Abweichung zum ursprünglichen Fischerländer-Diagramm habe ich nicht wie Stefan die IP-Pop für die X-Achse verwendet, sonder die Anzahl verlinkender Domains (Domain-Pop). Ob man als Kennzahl für den Trust einer Domain die Domain-Pop oder die IP-Pop verwendet macht keinen großen Unterschied. Die Y-Achse zeigt wie bei Stefan den Sichtbarkeitsindex.

    Stichprobenauswahl
    Für die Untersuchung wurden nur .de-Domains ausgewählt, um die Einflussfaktoren Geotargeting und Sprache möglichst weitgehend zu eliminieren. Bei den ausgewählten Domains handelt es sich nicht um eine Zufallsauswahl, sondern um die 10.000 de-Domains mit den höchsten Werten im Sichtbarkeitsindex. Die Range reicht von 1.784,6 Punkte (amazon.de) bis 0,47 Punkte (satzentrale.de). Mit dieser Auswahl soll sichergestellt werden, dass die untersuchten Domains über eine gewisse Größe verfügen und ausreichend Daten für eine zuverlässige Analyse vorliegen.

    \"Streudiagramm

    Auswertung des Streudiagramms
    In dem Streudiagramm ist sehr deutlich ein Zusammenhang zwischen Domain-Pop und Sichtbarkeitsindex zu erkennen. Tendenziell führt eine größere Anzahl verlinkender Domains zu einer größeren Sichtbarkeit der Domain bei Google. Die Punkte verteilen sich nicht zufällig. Vielmehr bildet sich eine Punktwolke, welche von unten links nach oben rechts verläuft. In dem oberen linken Dreieck des Diagramm findet man hingegen keine Punkte. Um eine bestimmte Sichtbarkeit zu erreichen, muss eine Domain anscheinend über eine ausreichende Domain-Pop verfügen.

    Korrelationskoeffizient und Bestimmtheitsmaß
    Für die eingezeichnete Trendlinie wurde eine Korrelation von 0,67 errechnet. Die Korrelation kann als gut bezeichnet werden. Das Bestimmtheitsmaß ist R^2=0,45. Das bedeutet, dass 45 Prozent der Streuung des Sichtbarkeitsindex durch die Domain-Pop erklärt werden können.

    Weitere Einflussfaktoren auf die Sichtbarkeit
    Umgekehrt bedeutet es natürlich auch, dass 55 Prozent der Sichtbarkeit nicht durch die Domain-Pop erklärt werden, was man auch sehr gut an der Streuung der Punkte um die Trendlinie erkennt. Diese Größe erscheint plausibel. So sind neben der externen Verlinkung selbstverständlich auch Einflussfaktoren wie Anzahl indexiertert Seiten, Qualität der On-Page-Optimierung, Qualität der Links, Google Penalties, Nutzersignale usw. verantwortlich.

    Die zwei Zonen im Streudiagramm
    Während die Zone des oberen linken Dreiecks in dem Chart von keiner der untersuchten Domains erreicht wird, da die Domain-Pop als limitierender Faktor wirkt, ist nach rechts unten jede Position denkbar, da es sich dabei um Abweichungen vom Optimum handelt, die in jeder Kombination möglich sind. So kann eine Domain über einen sehr hohen Domain-Pop-Wert verfügen, aber durch eine geringe Anzahl indexierter Seiten oder eine schlechte On-Page-Optimierung in ihrer Sichtbarkeit limitiert werden. Allerdings findet man bei steigenden Domain-Pop-Werten immer weniger starke Abweichungen vom Optimum. Das mag daran liegen, dass mit steigender Domain-Pop die Domains zunehmend professionell betrieben werden und auch die Suchmaschinenoptimierung eine steigende Qualität besitzt.

    Ausreißer im Streudiagramm
    Bei der folgenden Grafik habe ich die Punkte in der Grafik mit den dazugehörigen Domainnamen beschrifte. Durch die hohe Anzahl wird die Punktwolke schwarz eingefärbt, aber die Domainnamen der Ausreißer lassen sich gut lesen.

    \"Ausreisser

    So sieht man, dass Domains wie z.B. ebay.de, idealo,de, chip.de, meinestadt.de, kaufda.de und gedicht-und-spruch.de sich eher am linken oberen Rand der Punktewolke befinden und somit weitestgehend die optimale Sichtbarkeit aus der vorhandenen Domain-Pop generieren.

    Am unteren rechten Rand befinden sich hingegen Domains wie mister-wong.de und yigg.de. Sie verfügen über eine sehr geringe Sichtbarkeit im Verhältnis zu ihren Domain-Pop-Werten. Gerade bei diesen beiden Domain kann man davon ausgehen, dass deren Sichtbarkeit durch Google Penalties gedrosselt werden.

    Ausblick
    Wenn Euch die Darstellung gefallen hat, werde ich in den nächsten Wochen weitere Streudiagramme veröffentlichen. So ist es z.B. interessant zu sehen, welchen Unterschiede es macht, ob man als Trust-Wert die reine Anzahl Links, Host-Pop, Domain-Pop, IP-Pop oder Netzwerk-Pop heranzieht.

    The post Analyse der Bedeutung von Backlinks für den SEO-Erfolg appeared first on SISTRIX.

    SISTRIX

  • Monthly Archives: Januar 2013

  • Vergleich der SEO-Kennzahlen Anzahl Links und Domain-Popularity

    2:02 am - Posted by admin Category:SEO + SEM

    Im letzten Beitrag wurde der Zusammenhang zwischen Anzahl verlinkender Domains (Domain Popularity bzw. Domain-Pop) und Sichtbarkeitsindex in Form eines Streudiagramms visualisiert. Heute möchte ich zeigen, wie sich das Streudiagramm verändert, wenn man den Faktor Domain-Pop durch die reine Anzahl Links austauscht. Die Stichprobenauswahl bleibt gegenüber der ersten Analyse unverändert.

    Vergleich Diagramme
    Die folgenden Grafiken stellen die Streudiagramme 1) Domain-Pop vs. Sichtbarkeitsindex und 2) Anzahl Links vs. Sichtbarkeitsindex untereinander dar.

    \"Streudiagramm

    \"Streudiagramm

    Auswertung des Streudiagramms
    Auch bei der zweiten Grafik mit dem Faktor „Anzahl Links“ erkennt man, dass mehr externe Links im Schnitt zu mehr Sichtbarkeit führen. Ebenfalls lässt sich der Verlauf einer „Grenze des Machbaren“ erkennen. Im oberen linken Bereich befindet sich kein einziger Datenpunkt.

    Unterschiede zwischen Anzahl Links und Domain-Pop
    Der Vergleich der beiden Grafiken zeigt sehr anschaulich, dass die Kennzahl „Anzahl Links“ weiter streut als die Kennzahl „Domain-Pop“. So wird deutlich, dass die reine Anzahl Links einen geringeren Einfluss auf die Sichtbarkeit bei Google besitzt als die Anzahl verlinkender Domains. Dieses Ergebnis war zu erwarten, da z.B. Sitewide-Link von Google als Trust-Signal nur eingeschränkt bzw. gedämpft gewertet werden.

    Korrelationskoeffizient und Bestimmtheitsmaß
    Für die erste Grafik wurde eine Korrelation von 0,67 errechnet.und das Bestimmtheitsmaß beträgt damit R^2=0,45. Bei der zweiten Grafik liegt die Korrelation bei 0,59 und das Bestimmtheitsmaß sinkt auf R^2=0,35. Anders ausgedrückt können bei der untersuchten Stichprobe die Domain-Pop-Werte 45 Prozent der Streuung im Sichtbarkeitsindex erklären, während die reine Anzahl Links nur 35 Prozent erklären. Der Unterschied ist so deutlich, dass bestätigt wird, dass die Domain-Pop die bessere Kennzahl für das SEO-Analysen ist.

    An dieser Stelle möchte ich aber noch einmal deutlich darauf hinweisen, dass die Werte nur für die Daten der ausgewählten Stichprobe berechnet wurden und alle Einschränkungen der Datenerhebung und Stichprobenauswahl zu berücksichtigen sind. Am liebsten hätte ich mich auf die Darstellung der Streudiagramme beschränkt. Ich vertraue nach diesem Warnhinweis aber einmal auf Eure Sorgfalt beim Umgang mit den Korrelationsdaten.

    Ausreißer im Streudiagramm
    Für die Anzahl Links habe ich ebenfalls eine Grafik erstellt, bei der die Datenpunkte mit den dazugehörigen Domainnamen beschriftet wurden. Auch hier färbt sich die Punktwolke durch die Anzahl und Dichte der Beschriftungen schwarz ein, Ausreißer lassen sich jedoch wieder gut erkennen.

    \"Streudiagramm

    Unterhalb der Linie finden wir weit rechts so z.B. Domains wie trustedshops.de und phpbb.de. Diese Domains dürften aufgrund von vielen Sitewide-Links überproportional viele Links erhalten, die dann nur eingeschränkt die Sichtbarkeit erhöhen.

    Verhältnis Anzahl Links zu Anzahl verlinkender Domains
    Um zu beurteilen, ob ein Linkprofil natürlich wirkt, ist das durchschnittliche Verhältnis „Anzahl Links“ zu „Anzahl verlinkender Domains“ interessant. Die 10.000 Domains der untersuchten Stichprobe besitzen laut SISTRIX Linkdatenbank in Summe 2.810.738.830 Links von 16.355.865 Domains. Das ergibt einen Schnitt von 172 Links pro verlinkende Domain. Bei der Beurteilung dieses Ergebnisses gilt es aber zu berücksichtigen, dass Extremfälle mit mehreren Millionen Sitewide-Link von einer Domain den Wert nach oben treiben. Aussagekräftiger ist daher der Median. Der Median einer Anzahl von Werten ist die Zahl, welche an der mittleren Stelle steht, wenn man die Werte nach Größe sortiert. Für das Verhältnis „Anzahl Links“ zu „Anzahl verlinkender Domains“ beträgt der Median m=26. Bei der Hälfte der untersuchten Domains findet man also ein Verhältnis „Anzahl Links“ zu „Anzahl verlinkender Domains“ von >26 und bei der anderen Hälfte ein Verhältnis <26.

    The post Vergleich der SEO-Kennzahlen Anzahl Links und Domain-Popularity appeared first on SISTRIX.

    SISTRIX

  • Monthly Archives: Januar 2013

  • Facebook stellt Graph Search vor

    Januar 24, 2013 7:18 am - Posted by admin Category:SEO + SEM

    Die Spatzen haben es Ende des letzten Jahres bereits von den Dächern gepfiffen: Facebook arbeitet an einer eigenen Suchmaschine. Die Gerüchteküche brummte seitdem naturgemäß. Gestern hat Facebook dem ein Ende bereitet und seine „Graph Search“ genannte Neuerung der Öffentlichkeit vorgestellt. Herausgekommen ist im Prinzip eine aufgebohrte interne Suche über die Facebook-Daten. Getrieben von einem intelligenten Autocomplete-Feature können Facebook-Nutzer künftig die Elemente Personen, Fotos, Orte und Interessen durchsuchen und mit vielen Filtermöglichkeiten eingrenzen. So sind Suchen wie „Welche indischen Restaurants in Bonn bevorzugen meine Freunde aus Indien?“ oder „Fotos meiner Bekannten, die in Berlin aufgenommen wurden“ möglich. Abgesehen davon, dass facettierte interne Suchen seit Jahren in vielen Onlineshops möglich sind und auch ein etwas moderneres Frontend, wie es Facebook hier gezeigt hat, keine Revolution darstellt, sehe ich Graph Search vor zwei gravierenden Probleme:

    Zum einen ist der durchsuchte Datenbestand von der Anzahl meiner Kontakte sowie deren Aktivität bei Facebook abhängig, da nur komplett freigegebene oder mir freigegebene Inhalte durchsucht werden. Dies reduziert bereits vor der Suche die Wahrscheinlichkeit, dass der bestmögliche Treffer gefunden wird, massiv. Natürlich kann man hier entgegenhalten, dass Empfehlungen aus dem (Facebook)-Freundeskreis häufig eher meinen Interessen entsprechen. Trotzdem sehe ich diese „Filter Bubble“ bei sehr vielen Suchen als negativ an.

    Zum anderen ist es so, dass Facebook nicht aktiv rausgeht und Inhalte sucht. Es werden nur Elemente gefunden, die Facebook-Nutzer irgendwann mal gefunden und in das Facebook-System eingestellt haben. Was bei Google der Googlebot ist, muss bei Facebook also durch die Nutzer passieren. Das hat den großen Nachteil, dass diese Aktivitäten nicht von Facebook gezielt gesteuert werden können und weite Teile des interessanten Internets künftig weiße Flecken in der Facebook Graph Search bleiben werden. Dass Zuckerberg als „one last thing“ dann die Integration der Bing-Ergebnisse als Backfill-Index vorgestellt hat, konnte meine Begeisterung auch nicht so richtig wecken.

    The post Facebook stellt Graph Search vor appeared first on SISTRIX.

    SISTRIX

  • Monthly Archives: Januar 2013

  • Kostenloses SEO E-Book von SISTRIX

    Januar 23, 2013 1:19 pm - Posted by admin Category:SEO + SEM

    Es wurde einmal Zeit, viele Inhalte zu den Themen SEO-Analysen und Sichtbarkeitsindex, die wir täglich im Support und in unseren Seminaren vermitteln, strukturiert zusammenzufassen. Das Ergebnis ist das 123 Seiten starke E-Book „SEO-Analysen mit dem SISTRIX Sichtbarkeitsindex“, das ab sofort zum kostenlosen Download bereit steht.

    Das Buch ist vom SEO-Einsteiger bis zum langjährigen SEO-Experten für jede Person konzipiert, die sich mit dem Thema Suchmaschinenoptimierung beschäftigt.
    seo-e-book

    Dem SEO-Einsteiger wird empfohlen, das gesamte Buch komplett zu lesen und auch den weiterführenden Informationen z.B. über die Google-Rankingfaktoren zu folgen. Er erhält damit die Basis, um selbstständig SEO-Analysen durchführen zu können oder die Arbeit von beauftragten SEO-Agenturen zu bewerten.

    SEO-Experten können die ersten vier Kapitel des Buches als hilfreiche Referenz bei ihrer täglichen SEO-Arbeit verwenden. Für die Kapiteln 5 (Trends) und 6 (Chartmuster und Fallstudien) verspreche ich, dass selbst eingefleischte SISTRIX-Experten noch neue Aspekte der SEO-Analysen mit dem Sichtbarkeitsindex kennenlernen werden. In diesem Buch werden erstmals wertvolle Werkzeuge für die Suchmaschinenoptimierung vorgestellt, die aus der technischen Analyse von Aktien-Charts übernommen wurden.

    Ich war beim Verfassen des Buches selbst überrascht, wie gut sich die Techniken der Trendanalyse auf den SISTRIX Sichtbarkeitsindex anwenden lassen und zu welchen hilfreichen Erkenntnissen sie führen. Das führte dazu, dass dieser Teil wesentlich umfangreicher behandelt wurde als ursprünglich geplant. Anhand vieler Fallstudien veranschaulicht das Buch den überaus praktischen Nutzen dieser neuen Werkzeuge, die den SEO-Alltag in Zukunft sicherlich bereichern werden.

    Alle Leser sind herzlich eingeladen, Feedback in jeder Form für zukünftige Überarbeitungen und Aktualisierungen zu geben. Wem das Buch gefällt, dem sei an dieser Stelle schon einmal dafür gedankt, wenn er den Download des E-Books mit seinen Freunden bei Facebook, Twitter und Google Plus teilt.

    Hier geht es zum Download.

    The post Kostenloses SEO E-Book von SISTRIX appeared first on SISTRIX.

    SISTRIX

  • Monthly Archives: Januar 2013

  • Aussagekraft von Korrelationsanalysen zu einzelnen Google-Rankingfaktoren

    Januar 22, 2013 7:49 pm - Posted by admin Category:SEO + SEM

    Anfang der Woche relativierte Rand Fishkin in seinem Blogpost „What Do Correlation Metrics Really Tell Us About Search Rankings?“ die Aussagekraft der SEOmoz Korrelationsstudie zu den einzelnen Google-Rankingfaktoren. Indem er einige Fehler eingesteht, beweist Rand viel Courage und zeigt auf sympathische Weise, dass sich auch ein international anerkannter SEO-Guru einmal irren kann.

    In den vergangenen zwei Jahren haben diverse Korrelationsanalysen im SEO-Bereich für viel Verwirrung und beherzte Diskussionen gesorgt. Es ist begrüßenswert, dass der „Vater dieser Studien“ jetzt für mehr Klarheit sorgt. Wir haben den Blogpost von Rand zum Anlass genommen, mit dem Statistik-Experten Dr. Steffen Wagner ein Interview über die Probleme und Herausforderungen bei statistischen Analysen der Rankingfaktoren zu führen.

    SISTRIX: Hallo Herr Dr. Wagner, wollen Sie sich unseren Lesern kurz vorstellen?

    Wagner: Hallo, mein Name ist Steffen Wagner. Ich arbeite als Statistiker in der vor knapp zwei Jahren aus der Freien Universität Berlin ausgegründeten Beratungsgesellschaft INWT Statistics GmbH. Unser Name „INWT – In Numbers We Trust“ ist Programm: unsere Beratungsleistung liegt in der quantitativen, datengetriebenen Analyse und darauf aufbauenden Prognosen in den Bereichen CRM und Online-Marketing.

    SISTRIX: Im Jahr 2011 wurde von SEOmoz eine Studie veröffentlicht, welche anhand von Korrelationsanalysen die Beziehungen zwischen beobachteten Rankingpositionen und verschiedenen Eigenschaften der Treffer untersucht hat. Der gleiche Untersuchungsansatz wurde 2012 von Searchmetrics für die Suchergebnisse in Deutschland wiederholt. Wie schätzen Sie als Statistik-Experte diese Studien ein?

    Wagner: Die von Ihnen angesprochenen Studien messen die Korrelationsstärke zwischen Google Rankings und einzelnen erklärenden Variablen. Bei der Interpretation von Korrelationsstärken ist generell eine gewisse Vorsicht geboten, da eine Korrelation zunächst nur das gemeinsame Auftreten bestimmter Ausprägungen misst, was nicht zwangsläufig auch eine Kausalität bedeuten muss. Deshalb sollten hinter den Korrelationen vermutete Kausalitäten kritisch hinterfragt werden: Stimmt die Wirkungsrichtung? Gibt es sachlogische Argumente, die die vermutete Kausalität stützen, oder eher unplausibel erscheinen lassen? Gibt es unberücksichtigte Einflussfaktoren, die zu einer Scheinkausalität führen könnten? So ist ja auch die Anzahl der Störche und die Geburtenrate korreliert, was sich bei genauerem Hinsehen aber durch den Grad der Urbanisierung der untersuchten Regionen sehr plausibel erklären lässt.

    SISTRIX: Die Rangfolge der gemessenen Korrelationen entspricht nicht der Rangfolge der wichtigsten Rankingfaktoren in der gängigen SEO-Theorie. Für Facebook-Signale konnte beispielsweise in beiden Studien eine hohe Korrelation zu den Rankingpositionen gemessen werden, wohingegen der Faktor „Keyword im Title“ bei beiden Studien sogar leicht negativ korreliert. Die meisten SEO-Experten würden sagen, dass das Keyword im Titel-Tag zu den wichtigsten Rankingfaktoren gehört. Wie lassen sich diese Unterschiede erklären?

    Wagner: Damit führen Sie die eben angesprochenen sachlogischen Argumente ins Feld, die einer kausalen Interpretation der beobachteten Korrelationen entgegenstehen. Im Fall der Facebook-Signale stellt sich mir die Frage, ob diese das Google-Ranking beeinflussen oder ob nicht umgekehrt eine gute Sichtbarkeit bei Google ebenfalls eine höhere Aufmerksamkeit bei Facebook nach sich ziehen könnte. Somit stellt sich die Frage der Wirkungsrichtung. Zusätzlich muss geprüft werden, ob eine Scheinkausalität vorliegt. Es erscheint ja auch durchaus plausibel, dass eine gemeinsame dritte Variable, wie die Qualität des Contents, für die Beachtung bei Google und Facebook gleichermaßen verantwortlich sein könnte. Die von Experten nicht erwartete schwache Korrelation des Faktors „Keyword im Title“ kann mehrere Ursachen haben: Zum einen misst der Spearman Koeffizient nur monotone Zusammenhänge und es stellt sich die Frage, ob nach dem Google Brand Update Ende 2009 überhaupt noch ein solcher monotoner Zusammenhang besteht. Zum anderen handelt es sich bei „Keyword im Title“ um eine binäre Variable (Keyword vorhanden: ja/nein), was – zurückhaltend formuliert – für die Anwendung der Spearman-Korrelation ungünstig ist. Da die gefundene negative Korrelation zusätzlich sehr klein, d.h. nahe Null ist, muss geprüft werden, inwieweit dies ein zufälliger Effekt ist, und ob sich das negative Vorzeichen mit verändertem Keyword-Set reproduzieren lässt.

    SISTRIX: Rand Fishkin schreibt in seinem aktuellen Blogpost, dass er in seiner Studie zumindest teilweise Fehler gemacht und die Korrelationsdaten fälschlicherweise als Rankingfaktoren bezeichnet hat. Wurden die wesentlichen Kritikpunkte jetzt erkannt oder fehlen Ihnen noch wichtige Punkte, die für zukünftige Studien zu berücksichtigen sind? Wie könnte man den bisherigen Untersuchungsansatz verbessern?

    Wagner: Aus statistischer Sicht ist es auf jeden Fall begrüßenswert, wenn bei der Präsentation von Korrelationsanalysen der Unterschied zwischen Korrelation und kausalem Zusammenhang aufgezeigt wird, so dass der Leser klar zwischen den Fakten wie der Korrelationsstärke und darauf aufbauenden möglichen Erklärungsansätzen unterscheiden kann. Generell sollte auch der Übergang von univariaten zu multivariaten Analysen und Methoden vollzogen werden, da die in den Studien untersuchten Faktoren ja auch untereinander sehr stark korreliert sind. Erst die gemeinsame Betrachtung aller Faktoren erlaubt es, den Einfluss dieser zusätzlichen Korrelationsstruktur auf die Rankings zu berücksichtigen. Von besonderem Interesse wäre die wiederholte Erfassung der den Studien zugrunde liegenden Daten in entsprechend kurzen Zeitabständen. Anhand solcher Zeitreihen könnte man dann herausarbeiten, inwieweit Schwankungen des als kausal wirkend postulierten Rankingfaktors Schwankungen im Google-Ranking erklären können, oder auch eben nicht. Im letzteren Fall wäre dann die Hypothese des als kausal postulierten Zusammenhangs zu verwerfen und die Scheinkausalität identifiziert. Definiert man ‚kausal‘ zusätzlich dahingehend, dass die kausale Ursache zeitlich vor der induzierten Reaktion liegen muss, bieten solche Daten die Möglichkeit die Wirkungsrichtung des kausalen Zusammenhangs zu bestimmen. Man würde also prüfen, ob eine Änderung der Facebook-Signale einer Änderung der Rankings vorausgeht, oder ob umgekehrt, zuerst die Änderung des Rankings zu beobachten ist.

    SISTRIX: Warum ist es so schwer mit statistischen Methoden dem Google-SERP-Algorithmus auf die Schliche zu kommen?

    Wagner: Diese Schwierigkeit hat meiner Meinung nach zwei Gründe: Zum einen präsentiert Google ja lediglich die Reihenfolge der Ergebnisse, nicht aber den diesem Ranking zugrunde liegenden ‚wirklichen‘ Abstand zwischen den angezeigten Ergebnissen. Dies stellt aus statistischer Sicht eine starke Einschränkung bzgl. der in Frage kommenden Analyseverfahren dar. Zum anderen ist Google in der Lage das Verhalten der User auf den angesteuerten Ergebnisseiten direkt über Metriken wie Bounce Rate oder Time-On-Site zu messen und zur Beurteilung der Relevanz des Contents zu verwenden. Solange diese Engagement-Daten der statistischen Analyse nicht zur Verfügung stehen, ist es auch nicht möglich ihren Einfluss auf den Algorithmus zu quantifizieren und vom Einfluss anderer Rankingfaktoren zu unterscheiden.

    SISTRIX: Vielen Dank für das Interview!

    Das Interview führte Hanns Kronenberg

    The post Aussagekraft von Korrelationsanalysen zu einzelnen Google-Rankingfaktoren appeared first on SISTRIX.

    SISTRIX

  • Monthly Archives: Januar 2013

  • SEO Post 2.0

    1:33 am - Posted by admin Category:SEO + SEM

    Mit der App SEO Post erhälst Du alle wichtigen SEO News immer und überall auf Deinen mobilen Geräten. SEO Post sammelt die Informationen aus über 100 Quellen und präsentiert sie übersichtlich in Channels. Damit entfällt das mühsame \”Füttern\” von Feedreadern auf neuen Geräten.

    Die App wurde komplett neu erstellt und steht jetzt für iPhone und Android-Geräte sowie als Web-App für alle anderen Geräte und Tablets kostenlos zur Verfügung.

    Im Channel \”Veranstaltungen\” kann jeder Nutzer weitere Konferenzen, SEO-Stammtische und sonstige konspiratives SEO-Treffen eintragen.

    \"SEO

    Kostenloser Download im iTunes App Store (iPhone)

    Kostenloser Download bei Google Play (Android)

    Web-App m.seopost.de (Tablets, Windows Phone, Blackberry, Browser mit WebKit wie Chrome, Safari usw.)

    The post SEO Post 2.0 appeared first on SISTRIX.

    SISTRIX