• E-commerce Solution

    Umsatz machen… … 24 Stunden am Tag, 365 Tage im Jahr. Die Anzahl der sogenannten Webshops oder eShops auf dem Marktplatz Internet steigt täglich an.

    Read More
  • Link Building

    Während bei der Onpage- oder Onsite-Optimierung einer Webseite vornehmlich die Struktur und der Inhalt optimiert werden, fokussiert man beim Linkaufbau in erster Linie das Umfeld der betreffenden Webseite. Beim Linkaufbau versucht man die Anzahl der auf die eigene Webseite verweisenden …

    Read More
  • Content Management

    Open Source Software aus Überzeugung Ein Tätigkeitsschwerpunkt von hauptsache.net ist die Entwicklung von Lösungen unter Verwendung von Open Source Software.

    Read More
  • Web Development

    Comming soon!

    Read More
  • SEO Consulting

    Wie „denken“ Suchmaschinen? Suchmaschinen arbeiten auf unterschiedliche Art und Weise. 

    Read More

    Tag Archives: SEOErfolg

  • User Intent als Schlüssel zum langfristigen SEO-Erfolg

    Februar 6, 2019 1:07 pm - Posted by admin Category:SEO + SEM

    Massive Google Updates, regelmäßige Änderungen am SERP-Layout und viele neue SERP-Features – das letzte Jahr hat uns so viele Google-Änderungen beschert, wie schon lange nicht mehr. Wie du Google, trotz aller Änderungen, langfristig verstehst, erfährst du in diesem Blogbeitrag.

    Wahrscheinlich ist es dir beim Durchsehen der Gewinner und Verlierer des vergangenen Jahres bereits aufgefallen: Google wird unberechenbarer und schneller. Die Umstellung von Teilen der Algorithmus-Erzeugung auf Machine Learning (ML) hat sich im letzten Jahr überdeutlich gezeigt. Die Zeit von Tricks und Abkürzungen ist spätestens jetzt vorbei. Langfristig Erfolg kann nur haben, wer Googles Ziele versteht und ebenfalls auf diese Ziele hinarbeitet.

    Um einen Blick in die Zukunft von Google zu werfen, musst du einfach nur vom Desktop auf das Smartphone wechseln. Auf dem Handy ist zu sehen, wohin die Reise in den Google SERPs geht.

    Wo es geht, versucht Google mittlerweile selber Antworten auf die Fragen des Suchenden direkt in den SERPs zu liefern. Findet man auf dem Desktop im sichtbaren Bereich noch organische Treffer, sieht es auf dem Smartphone bei vielen Keywords so aus, wie auf den Screenshots.

    Und doch gibt es für die meisten Webseitenbetreiber keine Alternative zu Google: Facebook strauchelt, Instagram bietet fast keine Optionen, um Besucher auf seine eigene Webseite zu leiten und Amazon ist ein notorisch geschlossenes System. In Konsequenz werden wir uns in den nächsten Jahren mit Google arrangieren müssen. Zum Glück stehen sich Googles Ziele und die Ziele der meisten Webseitenbetreiber nicht im Wege.

    Googles Zukunft ist öffentlich

    Bei einem Konzern der Größe und des Einflusses von Google, gibt es öffentliche Kommunikation an vielen Stellen. Google bietet damit regelmäßig Einblick in seine Ziele. So hat Ben Gomes, der aktuelle VP Search bei Google, im letzten Jahr in einem Blogpost zum Beispiel die Ziele für die nächsten 20 Jahre der Google-Suche erklärt. Aber auch viele andere Dokumente und Veröffentlichungen liefern einen Eindruck von Googles Denken.

    Für SEOs sind dabei die Google Quality Rater Guidelines das wichtigste Dokument: hier beschreibt Google seine Sicht auf ideale Suchergebnisse und lässt ein Heer von freiberuflichen Mitarbeitern die aktuellen SERPs regelmäßig an diesem Standard messen. Welche bessere Vorstellung von Googles Zielen könnten wir erhalten?

    User Intent: was will der Nutzer?

    Ein zentrales Element ist dabei das Nutzerbedürfnis. Unter dem Titel „Understanding User Intent“ (Punkt 12.7, Seite 68) beschreibt Google in den Quality Rater Guidelines, welche User/Search Intents es gibt und welche Antworten Google auf diese gerne geben möchte.

    Das Konzept des User Intent ist dabei nicht neu: bereits seit vielen Jahrzehnten wird die Nutzerintention in Information Retrieval-Systemen beachtet. Auch in der Websuche gibt es frühe Adaptionen, wie beispielsweise in diesem Paper von Andrei Broder, der bei Altavista gearbeitet hat.

    Die Unterteilung von Suchen in Navigational, Informational und Transactional findet sich in fast allen Lehrbüchern und Grundlagenseminaren. Google hat diese Klassifizierung um einen Punkt erweitert und zwei Punkte noch unterteilt, um der aktuellen Realität der Websuche gerecht zu werden.

    Versteht man den User Intent von Keywords, wird klar, welche Informationen Google dort künftig ausspielen wird. Nur auf dieser Grundlage können wir beurteilen, welche organischen SEO-Chancen künftig noch bestehen. Die Nutzerintentionen im einzelnen:

    Visit in Person

    Neu hinzugefügt hat Google „Visit in Person“ als User Intent. Hier gehts es um Suchende, die in der Regel auf ihrem Smartphone ein lokales Geschäft suchen. SERPs mit diesem User Intent sehen häufig so aus:

    Gut zu sehen: Google Maps-Integrationen dominieren die SERPs. Während auf dem Desktop häufig noch der Anfang der organischen Treffer zu sehen ist, sieht man auf dem Handy fast nur noch Google Maps.

    In der folgenden Auswertung stellen wir nun die Anzahl der SERPs mit einer Google Maps-Integration dem Gesamt-Traffic dieser Keywords gegenüber. Im Kern geht es dabei um die Fragen: wie häufig kommt Google Maps eigentlich vor wie trafficrelevant sind diese Einbindungen?

    Gut zu sehen, dass Keyword-Anzahl und Gesamt-Traffic bei den Keywords mit so einer Google Maps-Integration in etwa parallel laufen. Gut 10% der Keywords in unserem Index machen auch rund 10% des Traffic aus.

    Website (ehemals Navigational)

    Suchanfragen mit der User Intent Website sind solche Keywords, bei denen der Nutzer auf eine spezielle, ihm vorher bereits bekannte Ziel-Webseite möchte. Typischerweise sehen Suchanfragen mit diesen User Intent so aus:

    Die gesuchte Webseite rankt organisch auf der ersten Position und verfügt in der Regel über Sitelinks. Der entsprechende Treffer nimmt folglich einen großen Teil des sichtbaren Bereiches auf dem Smartphone ein. Auf die danach folgenden organischen Treffer klicken Nutzer in diesem Fall eher selten. Die Gegenüberstellung von Keyword-Anzahl und Traffic sieht für Keywords mit Sitelinks so aus:

    Hier sehen wir eine deutlich andere Verteilung als bei den Maps-Integrationen: während die Keywords mit Sitelinks auf Position nur einen kleinen Anteil an allen Keywords ausmachen, ist es überproportional viel Suchvolumen, das auf diese Keywords entfällt. Nutzer suchen nach ihnen bekannt Marken.

    Do (ehemals Transactional)

    Bei der Nutzerintention „Do“ geht es darum, dass der Suchende irgendwas machen möchte. Häufig kaufen, manchmal aber auch downloaden, installieren oder sonst wie aktiv werden. SERPs mit diesem Intent sehen schematisch häufig so aus:

    Google zeigt im sichtbaren Bereich des Smartphones ausschließlich bezahlte Werbung an. Neben den klassischen AdWords-Anzeigen ist Google erfinderisch geworden: ob Google Shopping (PLAs), App-Downloads, Flugvergleiche, Kreditinformationen und noch vieles mehr – die unterschiedlichen, bezahlten Anzeigenformate werden mit jedem Börsenquartal mehr. Interessant ist die Gegenüberstellung von Anzahl der Keywords und ihrem Traffic für solche Keywords:

    Im Zuge der Steigerung seiner Einnahmen, hat Google mittlerweile weite Teile der SERPs „veranzeigt“ – bei rund einem Drittel der untersuchten Keywords findet sich die ein oder andere Form von bezahlten Ergebnissen. Interessanterweise kann der mit diesen Keywords verknüpfte Traffic nicht mithalten. Er liegt bei weniger als 20%. Hier zeigt sich Google Kernproblem der nächsten Jahre: deutlich mehr Anzeigen in den SERPs werden nicht zu gleichviel mehr Traffic (und damit Klicks und damit Einnahmen) führen. Google wird also aus den bestehenden, kommerziell relevanten Keywords einen größeren Teil des Kuchens abhaben wollen.

    Von Google ebenfalls in diese Intention einsortiert ist Device Action. Hier geht es darum, dass Nutzer von Smartphones mit dem Device interagieren. Beispiele von Google für solche Suchanfragen sind: „Rufe X an“, „Sende Y eine Textnachricht“ oder „Stelle den Wecker auf 6 Uhr“. Für SEOs sind Suchanfragen aus dieser Kategorie in der Regel nicht interessant: es geht um die Interaktion der Nutzers mit seinem Handy, nicht um klassische Suchanfragen an einem Webindex.

    Know (ehemals Informational)

    Die vierte und letzte Nutzerintention betrifft die Suche nach Informationen. Google nennt sie Know und Know Simple als Abwandlung davon. Um den Unterschied zwischen diesen beiden Intentionen zu verstehen, schau dir diese beiden Reihen von Screenshots an:

    In der oberen Reihe siehst du typische „Know“-Suchen. Jeweils eine Zeile tiefer siehst du Screenshots der entsprechenden „Know Simple“-Suche. Allein an diesen Beispielen wird schon deutlich, wo Google seine Zukunft sieht: Informationen zu einfachen Wissen-Abfragen werden direkt in den SERPs geliefert, während bei komplexeren Themen, die differenziert betrachtet werden müssen, auf die Webseiten verwiesen wird. Die Gegenüberstellung von Anzahl Keywords zu ihrem Traffic:

    Deutlich zu sehen: die Suche nach Informationen ist weiterhin die Hochburg der Internetsuche. Fast zwei Drittel aller Suchanfragen haben ein SERP-Feature, das auf eine eindeutige Know-Suche hinweist. Nimmt man weitere Features wie die Bilderbox hinzu, wächst dieser Anteil sogar noch deutlich.

    Braucht Google deine Webseite?

    Kommen wir nun zur Kernfrage, die du dir für jedes Keyword beziehungsweise jedes Keyword-Cluster stellen musst: braucht Google deine konkrete Webseite, um die Suchintention zu erfüllen?

    Für organische Rankings wird die Antwort auf diese Frage für die Intention Visit-in-Person sowie Do häufig negativ ausfallen. Visit-in-Person wird durch die Google-Maps-Integration dominiert. Organische Rankings sind erst im deutlich klickschwächeren Bereich unterhalb der Box zu finden. Für die mit Anzeigen zugepflasterten Ergebnisse der Do-Intention sieht es tendenziell noch schlechter aus. Google wird hier seine Monitarisierungsbemühungen noch verstärken müssen, um Wachstum zu erzeugen.

    Für Know-Intentionen ist die Antwort zwiegespalten: geht es um sehr einfache Antworten, die Google als Know-Simple direkt in den SERPs beantworten kann, wird das zunehmend auch passieren. Beantwortest du allerdings komplexe Fragen und Themen mit deinen Inhalten, so wird das auch in einigen Jahren noch organisch funktionieren.

    Für Keywords der Website-Intention ist die Antwort noch einfacher: Google kann in diesem Fall nur deine Seite als Ergebnis ausliefern, um dem Suchenden das richtige Resultat zu liefern. Auch hier bist du auf der sicheren Seite.

    Als Fazit bedeutet das:

    • Werde eine Marke, so dass Google nicht ohne dich als Ergebnis kann
    • Beantworte Themen in einer Tiefe, die sich in den SERPs nicht abbilden lässt.

    The post User Intent als Schlüssel zum langfristigen SEO-Erfolg appeared first on SISTRIX.

    SISTRIX

  • Tag Archives: SEOErfolg

  • Analyse der Bedeutung von Backlinks für den SEO-Erfolg

    Januar 25, 2013 7:26 pm - Posted by admin Category:SEO + SEM

    Nach der gängigen SEO-Theorie gehören Links von externen Domains (Backlinks) zu den wichtigsten Rankingfaktoren. Ziel dieses Beitrages ist es, den Zusammenhang zwischen Sichtbarkeitsindex und Backlinks zu untersuchen.

    Fischerländer-Diagramm für 10.000 Domains
    In Anlehnung an das Fischerländer-Diagramm (Trust-Efficiency-Diagramm von Stefan Fischerländer) habe ich ein Streudiagramm mit den Werten von 10.000 Domains erstellt, um die Bedeutung des Faktors „Backlinks“ zu analysieren. Ein Streudiagramm verdeutlich die Zusammenhänge besser als die reine Darstellung eines Korrelationskoeffizienten. Dieser ist für viele Menschen erst einmal abstrakt und weniger griffig und wird daher oft falsch interpretiert. In Abweichung zum ursprünglichen Fischerländer-Diagramm habe ich nicht wie Stefan die IP-Pop für die X-Achse verwendet, sonder die Anzahl verlinkender Domains (Domain-Pop). Ob man als Kennzahl für den Trust einer Domain die Domain-Pop oder die IP-Pop verwendet macht keinen großen Unterschied. Die Y-Achse zeigt wie bei Stefan den Sichtbarkeitsindex.

    Stichprobenauswahl
    Für die Untersuchung wurden nur .de-Domains ausgewählt, um die Einflussfaktoren Geotargeting und Sprache möglichst weitgehend zu eliminieren. Bei den ausgewählten Domains handelt es sich nicht um eine Zufallsauswahl, sondern um die 10.000 de-Domains mit den höchsten Werten im Sichtbarkeitsindex. Die Range reicht von 1.784,6 Punkte (amazon.de) bis 0,47 Punkte (satzentrale.de). Mit dieser Auswahl soll sichergestellt werden, dass die untersuchten Domains über eine gewisse Größe verfügen und ausreichend Daten für eine zuverlässige Analyse vorliegen.

    \"Streudiagramm

    Auswertung des Streudiagramms
    In dem Streudiagramm ist sehr deutlich ein Zusammenhang zwischen Domain-Pop und Sichtbarkeitsindex zu erkennen. Tendenziell führt eine größere Anzahl verlinkender Domains zu einer größeren Sichtbarkeit der Domain bei Google. Die Punkte verteilen sich nicht zufällig. Vielmehr bildet sich eine Punktwolke, welche von unten links nach oben rechts verläuft. In dem oberen linken Dreieck des Diagramm findet man hingegen keine Punkte. Um eine bestimmte Sichtbarkeit zu erreichen, muss eine Domain anscheinend über eine ausreichende Domain-Pop verfügen.

    Korrelationskoeffizient und Bestimmtheitsmaß
    Für die eingezeichnete Trendlinie wurde eine Korrelation von 0,67 errechnet. Die Korrelation kann als gut bezeichnet werden. Das Bestimmtheitsmaß ist R^2=0,45. Das bedeutet, dass 45 Prozent der Streuung des Sichtbarkeitsindex durch die Domain-Pop erklärt werden können.

    Weitere Einflussfaktoren auf die Sichtbarkeit
    Umgekehrt bedeutet es natürlich auch, dass 55 Prozent der Sichtbarkeit nicht durch die Domain-Pop erklärt werden, was man auch sehr gut an der Streuung der Punkte um die Trendlinie erkennt. Diese Größe erscheint plausibel. So sind neben der externen Verlinkung selbstverständlich auch Einflussfaktoren wie Anzahl indexiertert Seiten, Qualität der On-Page-Optimierung, Qualität der Links, Google Penalties, Nutzersignale usw. verantwortlich.

    Die zwei Zonen im Streudiagramm
    Während die Zone des oberen linken Dreiecks in dem Chart von keiner der untersuchten Domains erreicht wird, da die Domain-Pop als limitierender Faktor wirkt, ist nach rechts unten jede Position denkbar, da es sich dabei um Abweichungen vom Optimum handelt, die in jeder Kombination möglich sind. So kann eine Domain über einen sehr hohen Domain-Pop-Wert verfügen, aber durch eine geringe Anzahl indexierter Seiten oder eine schlechte On-Page-Optimierung in ihrer Sichtbarkeit limitiert werden. Allerdings findet man bei steigenden Domain-Pop-Werten immer weniger starke Abweichungen vom Optimum. Das mag daran liegen, dass mit steigender Domain-Pop die Domains zunehmend professionell betrieben werden und auch die Suchmaschinenoptimierung eine steigende Qualität besitzt.

    Ausreißer im Streudiagramm
    Bei der folgenden Grafik habe ich die Punkte in der Grafik mit den dazugehörigen Domainnamen beschrifte. Durch die hohe Anzahl wird die Punktwolke schwarz eingefärbt, aber die Domainnamen der Ausreißer lassen sich gut lesen.

    \"Ausreisser

    So sieht man, dass Domains wie z.B. ebay.de, idealo,de, chip.de, meinestadt.de, kaufda.de und gedicht-und-spruch.de sich eher am linken oberen Rand der Punktewolke befinden und somit weitestgehend die optimale Sichtbarkeit aus der vorhandenen Domain-Pop generieren.

    Am unteren rechten Rand befinden sich hingegen Domains wie mister-wong.de und yigg.de. Sie verfügen über eine sehr geringe Sichtbarkeit im Verhältnis zu ihren Domain-Pop-Werten. Gerade bei diesen beiden Domain kann man davon ausgehen, dass deren Sichtbarkeit durch Google Penalties gedrosselt werden.

    Ausblick
    Wenn Euch die Darstellung gefallen hat, werde ich in den nächsten Wochen weitere Streudiagramme veröffentlichen. So ist es z.B. interessant zu sehen, welchen Unterschiede es macht, ob man als Trust-Wert die reine Anzahl Links, Host-Pop, Domain-Pop, IP-Pop oder Netzwerk-Pop heranzieht.

    The post Analyse der Bedeutung von Backlinks für den SEO-Erfolg appeared first on SISTRIX.

    SISTRIX

  • Tag Archives: SEOErfolg

  • Analyse der Bedeutung von Backlinks für den SEO-Erfolg

    Januar 10, 2013 1:44 am - Posted by admin Category:SEO + SEM

    Nach der gängigen SEO-Theorie gehören Links von externen Domains (Backlinks) zu den wichtigsten Rankingfaktoren. Ziel dieses Beitrages ist es, den Zusammenhang zwischen Sichtbarkeitsindex und Backlinks zu untersuchen.

    Fischerländer-Diagramm für 10.000 Domains
    In Anlehnung an das Fischerländer-Diagramm (Trust-Efficiency-Diagramm von Stefan Fischerländer) habe ich ein Streudiagramm mit den Werten von 10.000 Domains erstellt, um die Bedeutung des Faktors „Backlinks“ zu analysieren. Ein Streudiagramm verdeutlich die Zusammenhänge besser als die reine Darstellung eines Korrelationskoeffizienten. Dieser ist für viele Menschen erst einmal abstrakt und weniger griffig und wird daher oft falsch interpretiert. In Abweichung zum ursprünglichen Fischerländer-Diagramm habe ich nicht wie Stefan die IP-Pop für die X-Achse verwendet, sonder die Anzahl verlinkender Domains (Domain-Pop). Ob man als Kennzahl für den Trust einer Domain die Domain-Pop oder die IP-Pop verwendet macht keinen großen Unterschied. Die Y-Achse zeigt wie bei Stefan den Sichtbarkeitsindex.

    Stichprobenauswahl
    Für die Untersuchung wurden nur .de-Domains ausgewählt, um die Einflussfaktoren Geotargeting und Sprache möglichst weitgehend zu eliminieren. Bei den ausgewählten Domains handelt es sich nicht um eine Zufallsauswahl, sondern um die 10.000 de-Domains mit den höchsten Werten im Sichtbarkeitsindex. Die Range…
    Suchmaschinen- und SEO-Blog – SISTRIX GmbH