• E-commerce Solution

    Umsatz machen… … 24 Stunden am Tag, 365 Tage im Jahr. Die Anzahl der sogenannten Webshops oder eShops auf dem Marktplatz Internet steigt täglich an.

    Read More
  • Link Building

    Während bei der Onpage- oder Onsite-Optimierung einer Webseite vornehmlich die Struktur und der Inhalt optimiert werden, fokussiert man beim Linkaufbau in erster Linie das Umfeld der betreffenden Webseite. Beim Linkaufbau versucht man die Anzahl der auf die eigene Webseite verweisenden …

    Read More
  • Content Management

    Open Source Software aus Überzeugung Ein Tätigkeitsschwerpunkt von hauptsache.net ist die Entwicklung von Lösungen unter Verwendung von Open Source Software.

    Read More
  • Web Development

    Comming soon!

    Read More
  • SEO Consulting

    Wie „denken“ Suchmaschinen? Suchmaschinen arbeiten auf unterschiedliche Art und Weise. 

    Read More

    Tag Archives: Links

  • Wie Google Links anhand der Nutzersignale aus dem Google Chrome Browser bewerten kann

    Juni 30, 2016 1:14 pm - Posted by admin Category:SEO + SEM

    Es verdichten sich die Beweise, dass Google anhand von Nutzersignalen unnatürliche Links sehr gut identifizieren und entwerten kann.

    Schon 2014 haben wir darüber geschrieben, dass Google die Möglichkeit besitzt, Links mit Hilfe der Daten vom Chrome Browser zu bewerten. Anhand der Nutzersignale wie oft ein Link tatsächlich von Nutzern geklickt wird, könnte Google den wahren Wert eines Links bestimmen.  Unnatürliche Links ließen sich ebenso enttarnen wie Links von Websites, die nur für den Linkverkauf erstellt wurden, aber mangels Mehrwert eigentlich überhaupt keine echten Besucher vorweisen können.

    Bislang fehlte für diese Theorie aber der eindeutige Beweis, dass der Google Chrome Browser das Surferhalten seiner Nutzer an Google sendet. Dieser Beweis liegt jetzt vor.

    Google My Activity (Meine Aktivitäten) zeigt den Browserverlauf an

    Google hat den neuen Dienst „My Activity“ eingeführt. Dort können Nutzer sehen, welche Daten Google bei der Nutzung von Google Produkten über sie gespeichert. hat.

    Bestandteil der Daten ist auch der Browserverlauf des Google Chrome Browsers. Somit erhält Google umfassende Daten, wie sich Nutzer durch das Web bewegen.

    Der folgende Screenshot zeigt z.B. an, dass ich heute um 10:01 Uhr den Chrome Browser benutzt habe. Ich habe in der Google-Suche eine Suchanfrage für „Elon Musk“ abgeschickt und über diesen Weg die Twitter-Seite von Elon Musk besucht. Dort habe ich einen Link auf einen Artikel bei bloomberg.com über Tesla und Solar City angeklickt. Am Ende des Beitrages habe ich einen Link auf einen weiteren Artikel bei Bloomberg geklickt. Auch das wurde bei „My Activity“ korrekt gespeichert.

    google-my-activity

    Über alle Nutzer kann Google so sehr genau berechnen wie häufig eine Seite aufgerufen wurde und welchen Links die Nutzer gefolgt sind.

    Warum sind diese Daten so wichtig und welche Bedeutung haben sie für den Linkauffbau und die interne Verlinkung? Die Antwort ist das Google Patent „Ranking documents based on user behavior and/or feature data (US 8117209 B1)“, das am 19. März 2010 eingetragen und am 14. Februar 2012 veröffentlicht wurde.

    Ein Link ist um so wichtiger, je häufiger er tatsächlich angeklickt wird

    In dem Dokument beschreibt Google eine Weiterentwicklung des PageRank-Modells. Ich versuche die etwas komplexe Mathematik dahinter möglichst einfach zu beschreiben, so dass es jeder verstehen kann. Dieser Abschnitt ist vielleicht etwas anstrengender zu lesen, aber es lohnt sich. Jeder SEO muss das Modell verstanden haben.

    Den PageRank-Wert kann man als Wahrscheinlichkeit verstehen, dass ein Surfer sich im Web gerade auf einer bestimmten Seite befindet. Je mehr Links zu der Seite führen und je wichtiger die Seiten sind, von denen aus verlinkt wird, um so größer ist die Wahrscheinlichkeit, dass sich ein Surfer auf dieser Seite befindet. Führen viele Links und Links von wichtigen Seiten auf eine bestimmte Zielseite, so hat sie einen hohen PageRank und damit einen hohen Rankingvorteil.

    Bei dem ursprünglichen Modell ging Google von einem zufälligen Surfer aus (Random Surfer Model). Vereinfacht ausgedrückt bewegt sich der Random Surfer durch das Netz, indem er zufällig einen der ausgehenden Links klickt. Die Klickwahrscheinlichkeit ist bei allen ausgehenden Links einer Seite gleich hoch, da der Random Surfer zufällig einen der angebotenen Links auswählt. Somit vererben nach dem Modell alle ausgehenden Links einer Seite den gleichen PageRank.

    Das Patent „Ranking documents based on user behavior and/or feature data“ beschreibt eine Weiterentwicklung dieses Modells. Es wird nicht mehr von einem Surfer ausgegangen, der zufällig einen Link auswählt, sondern ganz bewusst. Google nennt das Reasonable Surfer, was mit Rationaler Surfer übersetzt werden kann.

    Nach dem Reasonable Surfer Model sind Links um so wichtiger, je häufiger sie geklickt werden. Umgekehrt werden Links, die selten oder gar nicht geklickt werden, unwichtig und werden entsprechend gering gewichtet. In dem Patent beschreibt Google welche Links am häufigsten geklickt werden. Das sind z.B. Links direkt aus dem Hauptcontent der Seite, eher am Anfang des Contents, farblich hervorgehoben und unterstrichen. Diese werden deutlich häufiger geklickt als z.B. ein Link in kleinerer Schrift im Footer der Website. Je häufiger ein Link geklickt wird, um so stärker wird er gewichtet.

    Mit der Weiterentwicklung vom Random Surfer zum Reasonable Surfer wird die Prognose, mit welcher Wahrscheinlichkeit sich ein Surfer auf einer bestimmten Seite befindet, deutlich verbessert.

    Vor allem kann Google die neue Methode hervorragend im Kampf gegen unnatürliche Links einsetzen. Ein Link, der nicht geklickt wird, vererbt auch keinen PageRank und verursacht damit keinen Rankingvorteil.

    Unnatürliche Links werden kaum geklickt

    Wenn Links gezielt gesetzt wurden, nur um den PageRank der Zielseite zu beeinflussen, verstoßen sie geben die Richtlinien von Google. Wenn wir uns anschauen, welche Links Google als unnatürlich beschreibt, dann haben fast alle diese Links eine Gemeinsamkeit. Sie werden wahrscheinlich selten von echten Nutzern angeklickt. Das sind z.B. Links, die gar nicht sichtbar sind, Links im Footer eine Website, Links von Linktauschseiten, Seiten mit geringer Qualität, Artikel-Verzeichnissen, Presseportalen, Foren-Signaturen oder aus Gästebuch-Kommentaren. Sie werden selten geklickt, weil sie für die Nutzer uninteressant sind, nach Spam aussehen, und/oder weil die verlinkende Seite kaum echte Besucher besitzt.

    Google hat mir dem Reasonable Surfer Model eine sehr elegante Lösung gefunden, diese Links entwerten zu können. Wenn solche Links kaum geklickt werden, haben sie auch kaum einen Einfluss auf das Ranking.

    Google weiß wie häufig ein Link geklickt wird

    Diese Methode funktioniert um so besser, je genauer Google die tatsächliche Anzahl Klicks prognostizieren kann. Genau an dieser Stelle kommt der Google Chrome Browser in`s Spiel. Wie jetzt die Daten von My Activity zeigen, sendet der Chrome Browser den Browserverlauf an Google. Mit diesen Daten kann Google ein genaues Bewegungsprofil zwischen Websites erstellen und die Wichtigkeit von Links berechnen.

    Weltweit besitzt der Chrome Browser laut statcounter.com auf dem Desktop inzwischen einen Marktanteil von rund 57 Prozent. Mehr als die Hälfte der weltweiten Internetnutzung findet also über den Chrome Browser statt. Damit lassen sich sehr genaue statistische Aussagen über jede einzelne Website treffen. Diese Daten sind für Google deutlich wertvoller als Daten von Google Analytics. Jede Website, die nicht Analytics verwendet, wäre eine Black Box für Google. Chrome liefert umfangreiche Statistiken zu jeder Website.

    Die Nutzersignale in Form von tatsächlichen Klicks auf Links können langfristig wahrscheinlich auch schlecht durch Klickroboter gefälscht werden. Die Daten sind Nutzerprofilen zugeordnet und Google kann bewerten wie vertrauensvoll ein Nutzer ist. Bei My Activity werden auch Daten über den Standort angezeigt, über die Nutzung von Gmail, der Suche, verwendete Geräte, Google Now, Google Dokumenten und Tabellen, Aufruf von Seiten hinter einem Login usw. Anhand dieser Daten sollte sich ein Mensch von einem Roboter leicht unterscheiden lassen.

    Fazit

    Wir haben schon lange vermutet, dass Google mit dem Chrome Browser messen kann, wie häufig ein Link tatsächlich angeklickt wird und unnatürliche Links entsprechend abwertet. Mit den Daten von My Activity liegt nun der Beweis vor, dass der Chrome Browser die Nutzersignale tatsächlich an Google sendet. Jeder SEO sollte davon ausgehen, dass Links, die nicht geklickt werden, langfristig auch keinen Wert für das Ranking besitzen. Das gilt um so mehr, wenn man sich die Erfolge von Google beim Kampf gegen Linkspan in den letzten Jahren anschaut. Die Verwendung der Nutzersignale aus dem Google Chrome Browser sind eine sehr gute Erklärung dafür. 

    sistrix.de

  • Tag Archives: Links

  • Bewertet Google Links mit den Daten vom Chrome Browser?

    August 6, 2014 7:29 pm - Posted by admin Category:SEO + SEM

    Bewertung LinksAm 14. Februar 2012 wurde das Google Patent “Ranking documents based on user behavior and/or feature data” veröffentlicht.

    Vereinfacht ausgedrückt handelt die Patentschrift davon, dass Links anhand des Nutzerverhaltens bewertet und gewichtet werden. Ein Link, der häufig von Nutzern geklickt wird, erhält mehr Gewicht als ein Link, der selten geklickt wird.

    Das Patent stellt eine wichtige Weiterentwicklung des ursprünglichen PageRank-Algorithmus dar, der jeden Link auf einer Seite unabhängig vom tatsächlichen Klickverhalten noch gleich stark gewichtet hat. Aber wie kann man sich die Bewertung von Links aufgrund des Nutzerverhaltens konkret vorstellen und welche Daten kann Google dafür verwenden?

    Auswertung des Nutzerverhaltens zur Bekämpfung von Link-Spam

    Denkt man ein wenig über die Gewichtung von Links anhand des tatsächlichen Klickverhaltens nach, so ist das von Google eine sehr clevere Lösung, dem künstlichen Linkaufbau zur Manipulation der Suchergebnisse etwas entgegenzusetzen.

    Gekaufte Links und Spamlinks werden tendenziell eher auf einer Seite versteckt. Sie stehen im Footer, in speziellen Boxen am Seitenrand oder sind sogar komplett unsichtbar gemacht worden. Doch wenn die Nutzer die Links kaum sehen und die Links auch in vielen Fällen nicht themenrelevant sind, werden sie diese Links auch nicht klicken. Entsprechend gering werden die Links dann nach den Ideen des Patents gewichtet.

    Wenn gekaufte Links nicht versteckt werden, handelt es sich oft um künstliche Websites, die nur für den Linkverkauf erstellt wurden (z.B. Blogs auf Basis von Expired Domains). Wenn es dort keine echten Nutzer gibt, können diese auch keine verkauften Links klicken. Die dort verkauften Links sind dann praktisch wertlos.

    Wie kann Google das Nutzerverhalten zur Beurteilung von Links messen?

    Die große Frage ist, welche Daten Google für die Gewichtung von Links verwendet. Wie kann Google messen, welcher Link wie häufig von Nutzern einer Website geklickt wird? Im SEO-Bereich werden immer wieder zwei Google-Angebote als mögliche Daten-Quellen genannt. Zum einen Google Analytics und zum anderen der Google Chrome Browser.

    Persönlich glaube ich aus zwei Gründen nicht, dass Google zu diesem Zweck die Daten von Google Analytics verwendet. Zum einen betont Google immer wieder, dass sie für einen solchen Zweck keine Analytics-Daten verwenden. Sollte das nicht der Wahrheit entsprechen, käme es irgendwann heraus. Warum sollten Google hier ohne Not seine Glaubwürdigkeit aufs Spiel setzen?

    Der zweite Grund ist vielleicht noch wichtiger. Die Analytics-Daten sind nicht besonders gut geeignet, um das Klickverhalten von Links auf allen Domains zu messen. Nur ein gewisser Prozentsatz der Websites hat Google Analytics integriert. Laut builtwith.com nutzen aktuell 55,7 Prozent der Quantcast Top Million Websites Google Analytics. Zu diesen Websits hat Google alle Daten, zu den restlichen 44,3 Prozent jedoch überhaupt keine Daten. Das ist eine ungünstige Verteilung. Nimmt man die gesamte Stichprobe von builtwith.com mit aktuell über 289 Millionen Domains, dann haben sogar nur 9,2 Prozent Google Analytics integriert. Auf Basis von Analytics-Daten wäre das System mehr als nur halb blind. Durch den Verzicht auf Google Analytics könnte jede Website, die Links verkaufen möchte, das System ganz einfach austricksen und in den Stealth-Modus gehen.

    Google Chrome Browser

    Viel besser wären die Daten geeignet, die Google über den Chrome Browser gewinnen kann. Weltweit hat der Chrome Browser nach Zahlen von StatCounter bei Desktop-Computern inzwischen einen Marktanteil von rund 50 Prozent.

    Marktanteile Desktop-Browser weltweit

    Deutschland ist eines der wenigen Länder auf der Welt, in denen der Chrome Browser noch nicht zum Marktführer geworden ist. Aber auch hierzulande liegt der Desktop-Marktanteil schon bei 28 Prozent. Nur der Firefox-Browser wird in Deutschland häufiger genutzt.

    Nutzung Browser weltweit August 2014

    Mit dieser breiten Datenbasis könnte Google die tatsächliche Nutzung von praktisch jeder Website sehr präzise messen. Ebenso lassen sich die Besucherströme über Verlinkungen zwischen verschiedenen Websites ermitteln.

    Mir fällt keine Datenquelle ein, mit denen man Links anhand des Nutzerverhaltens besser bewerten könnte. Keine Website kann sich vor den Chrome-Nutzern verstecken.

    Aber übermittelt der Chrome Browser tatsächlich Daten an Google, welcher Link wie häufig geklickt wurde?

    Chrome versucht zu erraten, welcher Link wie oft geklickt wird

    Die Frage lässt sich sehr leicht beantworten. In den erweiterten Chrome-Einstellungen (Einstellungen > Erweiterte Einstellungen anzeigen) findet man im Bereich Datenschutz eine Funktion, die sich „Netzwerkaktionen voraussehen, um die Ladegeschwindigkeit zu verbessern“ nennt. Diese Funktion ist standardmäßig bei allen Nutzern aktiviert. Nur ein kleiner Prozentsatz dürfte sie deaktiviert haben.

    Google Chrome Funktion Netzweraktionen voraussehen

    Die erweiterte Einstellung “Netzwerkaktionen voraussehen, um die Ladegeschwindigkeit zu verbessern” ist standardmäßig im Google Chrome Browser aktiviert.

    Worum geht es bei dieser Funktion? Wenn ein Nutzer mit dem Chrome Browser eine URL aufruft, analysiert Google die Links auf der Seite und versucht zu erraten, welchen Link der Nutzer als nächstes anklicken wird. Die Zielseiten mit den höchsten Wahrscheinlichkeiten werden dann im Hintergrund bereits geladen. Klickt der Nutzer tatsächlich auf einen dieser Links, ist die Seite bereits vorab geladen. Auf diese Weise ermöglicht der Chrome Browser ein sehr schnelles Surf-Erlebnis.

    Google beschreibt die Funktion in der Chrome-Hilfe wie folgt:

    Über diese Funktion: Browser verwenden zum Laden einer Webseite die IP-Adresse. Wenn Sie eine Webseite besuchen, kann Chrome die IP-Adressen aller Links auf der Website suchen und Links, auf die Sie vermutlich als Nächstes klicken werden, bereits vorab abrufen. Mithilfe der Pre-Rendering- und Vorabruf-Technologie können Websites Links, die Sie möglicherweise als Nächstes aufrufen, schneller laden.

    Mit anderen Worten bedeutet die Vorabruf-Technologie aber auch, dass Google bei jedem Seitenaufruf über den Chrome-Browser einen Algorithmus trainiert, der die Klickwahrscheinlichkeit von Links bewertet. Und das mit einem weltweiten Marktanteil von 50 Prozent bei den Desktop-Browsern. Wir sprechen hier also nicht nur von irgendeiner Stichprobe, sondern von einer “halben Vollerhebung” über praktisch alle Domains. Wer braucht da noch Analytics-Daten, die für einen großen Prozentsatz der Domains fehlen, zur Bewertung von Links?

    Fazit

    Die Vorabruf-Technologie bei Chrome ist die perfekte Ergänzung und der ideale Datenlieferant für das Patent „Ranking documents based on user behavior and/or feature data“.

    Sollte Google nach diesem Verfahren Links bewerten, dann ist ein Link für die Suchmaschinenoptimierung um so wertvoller, je häufiger er von echten Besuchern auch tatsächlich geklickt wird. Das ist bei echten Empfehlungen in Form von echten Links entsprechend stärker der Fall als bei den meisten unnatürlichen und gekauften Links.

    Natürlich wissen wir nicht, ob Google das Patent in dieser Form auch tatsächlich anwendet und ob für die Umsetzung die Chrome-Daten herangezogen werden. Bei den deutlichen Fortschritten, die Google in den letzen Jahren bei der Bekämpfung von Spam-Links gemacht hat, ist diese Erklärung aber mein persönlicher Favorit.

    Was denkt Ihr über die Funktion „Netzwerkaktionen voraussehen, um die Ladegeschwindigkeit zu verbessern“? Gibt es Gründe, warum Google diese wertvollen Daten nicht auch für seinen Ranking-Algorithmus nutzen würde?

    The post Bewertet Google Links mit den Daten vom Chrome Browser? appeared first on SISTRIX.

    SISTRIX

  • Tag Archives: Links

  • Matt Cutts sagt Links in Gastbeiträgen den Kampf an

    Januar 21, 2014 1:10 pm - Posted by admin Category:SEO + SEM

    Heute nacht veröffentlichte Matt Cutts, Head of Googles Webspam Team, in seinem Blog einen neuen Post mit dem Titel „The decay and fall of guest blogging for SEO“ (Der Verfall und Niedergang von Gastbeiträgen zu SEO-Zwecken).

    Matt warnt in dem Beitrag ausdrücklich davor, 2014 Gastbeiträge für den Linkaufbau zu verwenden. Wenn diese Follow-Links enthalten, wäre das ein eindeutiger Verstoß gegen die Google Richtlinien. Er betont in einem Update des Artikels, dass selbstverständlich jeder auf seiner Website machen kann, was er möchte und Gastbeiträge aus der Sicht von Google nicht grundsätzlich schlecht sind, wenn sie andere Marketingzwecke verfolgen. Allerdings sollten Links in den Beiträgen wie bei Werbeeinbindungen auf Nofollow gesetzt werden, um von Google nicht als Spam angesehen zu werden.

    Matt Cutts und John Mueller hatten sich sch schon in der Vergangenheit kritisch über das Thema Guest Blogging geäußert, aber bisher nicht so klar und eindeutig. Es ist davon auszugehen, dass Google in Kürze den Worten Taten folgen lässt.

    Offen lässt es Matt, in welcher Form Google gegen Links aus Gastbeiträgen vorgehen wird. Denkbar wäre grundsätzlich drei Varianten:

    1. Berücksichtigung von Links aus Gastbeiträgen bei manuellen Penalties im Webspam Team
    2. Integration in bestehenden automatischen Filtern wie den Pinguin Updates
    3. Google erweitert seinen Zoo um ein weiteres Tier und veröffentlicht einen neuen Filter, der spezielle gegen Links aus Gastbeiträgen ausgerichtet ist

    Was glaubt Ihr, welchen Weg Google einschlagen wird?

    The post Matt Cutts sagt Links in Gastbeiträgen den Kampf an appeared first on SISTRIX.

    SISTRIX

  • Tag Archives: Links

  • Bezahlte Links, Spam und Fake-Accounts sind keine Erfindung der SEOs

    Januar 14, 2014 1:07 am - Posted by admin Category:SEO + SEM

    Die ClaqueNeulich bin ich auf einen interessanten Wikipedia-Artikel gestoßen. Es zeigt sich, dass es professionelle Vorläufer von bezahlten Links, Spam und Fake-Accounts schon vor fast 200 Jahren gab. Um 1820 wurde in Paris von Monsieur Sauton bezahlten Applaus bei Theaterstücken und anderen öffentlichen Aufführung angeboten.

    Eine Person, die gegen Entgelt klatschte, wurde Claqueur (frz. claquer „klatschen“) genannt. Die Gesamtheit der Claqueure in einem Theater wird „die Claque“ genannt. Ihre Aufgabe war die „Sicherstellung des dramaturgischen Erfolges“.

    Es ist durchaus erstaunlich, wie groß die Spezialisierungsgrad der Claque im 19. Jahrhundert war, die im Jargon der Pariser auch “Ritter des Kronleuchters” geannt wurden. So gab es:

    • Chauffeurs (Heizer): Sie standen tagsüber vor den Ankündigungen und hatten das Stück vor den Umstehenden zu loben.
    • Chatouilleurs (Kitzler): Sie äußerten sich vor Anfang der Vorstellung und in den Pausen positiv über die Darbietungen.
    • Connaisseurs (Kenner): Sie hatten die Aufgabe, während der Vorstellung positive Bemerkungen fallen zu lassen.
    • Rieurs (Lacher): Sie hatten die Umsitzenden mit ihrem „spontanen“ Gelächter anzustecken.
    • Pleureurs (Heuler): Ihre Aufgabe war es, während rührender Szenen zu schluchzen.
    • Tapageurs (Aufsehenmacher): Sie hatten heftig zu applaudieren.
    • Bisseurs („Zugabe“-Rufer): Sie riefen nach der Vorstellung „Da capo“ und „Zugabe“.

    Es ist hingegen nicht verwunderlich, dass ausgerechnet in diese Zeit die Geburtsstunde der Claqueure zu finden ist. Es war die Zeit, in der sich die Industrialisierung und die kapitalistische Wirtschaftsweise in Europa durchsetzten. Da sich der Erfolg einer öffentlichen Aufführung durch künstliche Publikums-Signale steigern lies, wurde daraus fast zwangsläufig eine professionelle Dienstleistung.

    Auch in TV-Sendungen werden durch Laugh Tracks (auf Tonband aufgenommenes Lachen und Beifall) Zuschauer zum Mitlachen und zu mehr Begeisterung für die Show animiert. Die erste Lachkonserve wurde in der Hank McCune Show im September 1950 verwendet. Ebenfalls wird Studio-Publikum für diesen Zweck eingesetzt und vor der Sendung professionell „angeheizt“. In den 90er Jahren war die Nachfrage nach Warm-Uppern (Publikumsanheizern) mit dem Aufkommen zahlreicher Talk- und Gameshows enorm. “Da wurde jeder, der gerade ein Mikrofon in der Hand halten konnte, und einigermaßen gut ankam, herangezogen”, sagt Christian Oberfuchshuber, einer der gefragtesten deutschen Warm-Upper. Inzwischen ist der große Hype vorbei und es gibt noch eine Gruppe aus etwa zehn Warm-Uppern, die von diesem Beruf leben

    Das gleiche Phänomen wiederholt sich im Internet. Nur die Art des Beifall-Spendens hat sich den Techniken des Mediums angepasst:

    • Bezahlte Links: Sie sollen eine redaktionelle Empfehlung vortäuschen und die Suchergebnisse bei Google durch die Vererbung von PageRank und die Verwendung von attraktiven Linktexten beeinflussen.
    • Linkschleudern: Hierbei handelt es sich um Websites, deren Hauptzweck darin besteht dort künstliche Links aufbauen zu können. Die bekanntesten Formen sind Webkataloge, Artikelverzeichnisse, künstliche Blogs auf Basis von Expired Domains und Social-Bookmarking-Plattformen wie einstmals Mister Wong. Hier nimmt der Fake zum Teil absurde Ausmaße an, so dass ausschließlich die Claque das gesamte Publikum „des (Internet-)Theaters“ bildet.
    • Bezahlte Bewertungen: Sie dienen dazu, die Bewertungsprofile z.B. von Shops, Amazon-Produkten, Google Places und Branchenbucheinträgen besser aussehen zu lassen. Ebenfalls gibt es den umgekehrten Fall, dass Wettbewerber ihre Konkurrenten gezielt negativ bewerten (Dissen). Die Studie „Fake It Till You Make It“ des Marketing-Professors Georgios Zervas, von der Boston University geht davon aus, dass mittlerweile 20 Prozent der Yelp-Bewertungen entweder von konkurrierenden Restaurants oder von bezahlten Rezensenten verfasst werden.
    • Spam- und Fake-Kommentare: Sie haben die Aufgabe eine Diskussion in die gewünschte Richtung zu lenken, werbliche Effekte und wurden vor ein paar Jahren (als es noch gut funktionierte) gerne genutzt, um auf einfache Weise künstliche Links zu erzeugen.
    • Forenspam: Sie haben grundsätzlich die gleiche Aufgabe wie Spam- und Fake-Kommentare, nur dass man sie in Foren uns Frage-und-Antwort-Portalen anstatt in Gästebüchern findet.
    • Gekaufte Freunde: Sie dienen dem Zweck für ein Social-Media-Profil beispielsweise bei Facebook, Twitter oder Google+ durch eine hohe Anzahl von Freunden oder Fans eine statistisch größere Bedeutung vorzutäuschen.
      Fake-Accounts: Sie werden im Netzjargon auch Sockenpuppe genannt und dazu benötigt, um Spam- und Fake-Beiträge abzusetzen. Weitestgehend automatisiert und in Massen gezüchtet werden sie auch in Tausender-Paketen als „Freunde“ verkauft.

    Die Bekämpfung von Fake und Spam ist für alle Internet-Angebote überlebenswichtig, deren Mehrwert hauptsächlich über die Darstellung und Auswertung von Meinungen, Bewertungen sowie Nutzersignalen generiert werden. Wirksame Spam-Filter sind ein entscheidender Wettbewerbsvorteil.

    Google gelingt es mit zunehmendem Erfolg durch die Auswertung weiterer Daten die Internet-Claqueure zu entlarven und deren Signale auszufiltern. Dabei ist es sicherlich hilfreich, wenn man nicht nur über die Suchdaten der erfolgreichsten Suchmaschine, sondern mit Google Chrome über einen sehr weit verbreiteten Browser verfügt und mit Android eines der beiden führenden Betriebssystem für mobile Geräte besitzt. Auf diese Weise lassen sich viele Daten für wirksame Filter sammeln, die den meisten Wettbewerbern fehlen.

    Anbieter wie Yelp werden durch neue Dienste wie Foursquare herausgefordert, die über wirksamere Fake-Filter in Form eines Check-in vor Ort und umfangreiche Profildaten verfügen.

    Auch wenn es sich bei dem Rennen „Fake versus Fake-Filter“ um ein ständiges Katz-und-Maus-Spiel handelt, gibt es doch deutliche Anzeichen, dass im Bereich der Suchmaschinenoptimierung Fake und Spam ihren Zenit überschritten haben und langsam außer Mode kommen, so wie auch die Claqueure im ersten Viertel des 20. Jahrhunderts wieder außer Mode kamen. Ein Blick auf die Gewinner und Verlierer im SISTRIX Sichtbarkeitsindex des letzen Jahres unterstreicht diesen Gedanken.

    Im Zuge diese Entwicklung wird sich hoffentlich auch der Ruf der SEO-Branche bessern, die über wesentlich mehr Aufgaben, Werkzeuge und Tätigkeiten verfügt, als nur Fake und Spam zu verbreiten. Eine suchmaschinenfreundliche und barrierefreie Gestaltung von Websites sowie eine marktorientierte Ausrichtung des Contents auf die Nachfrage der Nutzer von Suchmaschinen hilft das Web besser zu machen, nicht schlechter. Diese positive Seite von SEO wurde in der Öffentlichkeit machmal übersehen.

    Gleichwohl wird das Netz nie frei sein von Spam und Fake, so wie uns auch Laugh Tracks in TV-Sendungen weiterhin begleiten werden. Ihre Verbreitung wird immer stark davon abhängen, wie wirksame die gegen sie verwendeten Filter in den jeweils einzelnen Bereichen arbeiten, wie lukrativ es ist, solche Filter anzubieten und wie lukrativ es ist, diese Filter wiederum zu umgehen.

    The post Bezahlte Links, Spam und Fake-Accounts sind keine Erfindung der SEOs appeared first on SISTRIX.

    SISTRIX

  • Tag Archives: Links

  • Vergleich der SEO-Kennzahlen Anzahl Links und Domain-Popularity

    Januar 25, 2013 2:02 am - Posted by admin Category:SEO + SEM

    Im letzten Beitrag wurde der Zusammenhang zwischen Anzahl verlinkender Domains (Domain Popularity bzw. Domain-Pop) und Sichtbarkeitsindex in Form eines Streudiagramms visualisiert. Heute möchte ich zeigen, wie sich das Streudiagramm verändert, wenn man den Faktor Domain-Pop durch die reine Anzahl Links austauscht. Die Stichprobenauswahl bleibt gegenüber der ersten Analyse unverändert.

    Vergleich Diagramme
    Die folgenden Grafiken stellen die Streudiagramme 1) Domain-Pop vs. Sichtbarkeitsindex und 2) Anzahl Links vs. Sichtbarkeitsindex untereinander dar.

    \"Streudiagramm

    \"Streudiagramm

    Auswertung des Streudiagramms
    Auch bei der zweiten Grafik mit dem Faktor „Anzahl Links“ erkennt man, dass mehr externe Links im Schnitt zu mehr Sichtbarkeit führen. Ebenfalls lässt sich der Verlauf einer „Grenze des Machbaren“ erkennen. Im oberen linken Bereich befindet sich kein einziger Datenpunkt.

    Unterschiede zwischen Anzahl Links und Domain-Pop
    Der Vergleich der beiden Grafiken zeigt sehr anschaulich, dass die Kennzahl „Anzahl Links“ weiter streut als die Kennzahl „Domain-Pop“. So wird deutlich, dass die reine Anzahl Links einen geringeren Einfluss auf die Sichtbarkeit bei Google besitzt als die Anzahl verlinkender Domains. Dieses Ergebnis war zu erwarten, da z.B. Sitewide-Link von Google als Trust-Signal nur eingeschränkt bzw. gedämpft gewertet werden.

    Korrelationskoeffizient und Bestimmtheitsmaß
    Für die erste Grafik wurde eine Korrelation von 0,67 errechnet.und das Bestimmtheitsmaß beträgt damit R^2=0,45. Bei der zweiten Grafik liegt die Korrelation bei 0,59 und das Bestimmtheitsmaß sinkt auf R^2=0,35. Anders ausgedrückt können bei der untersuchten Stichprobe die Domain-Pop-Werte 45 Prozent der Streuung im Sichtbarkeitsindex erklären, während die reine Anzahl Links nur 35 Prozent erklären. Der Unterschied ist so deutlich, dass bestätigt wird, dass die Domain-Pop die bessere Kennzahl für das SEO-Analysen ist.

    An dieser Stelle möchte ich aber noch einmal deutlich darauf hinweisen, dass die Werte nur für die Daten der ausgewählten Stichprobe berechnet wurden und alle Einschränkungen der Datenerhebung und Stichprobenauswahl zu berücksichtigen sind. Am liebsten hätte ich mich auf die Darstellung der Streudiagramme beschränkt. Ich vertraue nach diesem Warnhinweis aber einmal auf Eure Sorgfalt beim Umgang mit den Korrelationsdaten.

    Ausreißer im Streudiagramm
    Für die Anzahl Links habe ich ebenfalls eine Grafik erstellt, bei der die Datenpunkte mit den dazugehörigen Domainnamen beschriftet wurden. Auch hier färbt sich die Punktwolke durch die Anzahl und Dichte der Beschriftungen schwarz ein, Ausreißer lassen sich jedoch wieder gut erkennen.

    \"Streudiagramm

    Unterhalb der Linie finden wir weit rechts so z.B. Domains wie trustedshops.de und phpbb.de. Diese Domains dürften aufgrund von vielen Sitewide-Links überproportional viele Links erhalten, die dann nur eingeschränkt die Sichtbarkeit erhöhen.

    Verhältnis Anzahl Links zu Anzahl verlinkender Domains
    Um zu beurteilen, ob ein Linkprofil natürlich wirkt, ist das durchschnittliche Verhältnis „Anzahl Links“ zu „Anzahl verlinkender Domains“ interessant. Die 10.000 Domains der untersuchten Stichprobe besitzen laut SISTRIX Linkdatenbank in Summe 2.810.738.830 Links von 16.355.865 Domains. Das ergibt einen Schnitt von 172 Links pro verlinkende Domain. Bei der Beurteilung dieses Ergebnisses gilt es aber zu berücksichtigen, dass Extremfälle mit mehreren Millionen Sitewide-Link von einer Domain den Wert nach oben treiben. Aussagekräftiger ist daher der Median. Der Median einer Anzahl von Werten ist die Zahl, welche an der mittleren Stelle steht, wenn man die Werte nach Größe sortiert. Für das Verhältnis „Anzahl Links“ zu „Anzahl verlinkender Domains“ beträgt der Median m=26. Bei der Hälfte der untersuchten Domains findet man also ein Verhältnis „Anzahl Links“ zu „Anzahl verlinkender Domains“ von >26 und bei der anderen Hälfte ein Verhältnis <26.

    The post Vergleich der SEO-Kennzahlen Anzahl Links und Domain-Popularity appeared first on SISTRIX.

    SISTRIX

  • Tag Archives: Links

  • Vergleich der SEO-Kennzahlen Anzahl Links und Domain-Popularity

    Januar 14, 2013 1:19 pm - Posted by admin Category:SEO + SEM

    Im letzten Beitrag wurde der Zusammenhang zwischen Anzahl verlinkender Domains (Domain Popularity bzw. Domain-Pop) und Sichtbarkeitsindex in Form eines Streudiagramms visualisiert. Heute möchte ich zeigen, wie sich das Streudiagramm verändert, wenn man den Faktor Domain-Pop durch die reine Anzahl Links austauscht. Die Stichprobenauswahl bleibt gegenüber der ersten Analyse unverändert.

    Vergleich Diagramme
    Die folgenden Grafiken stellen die Streudiagramme 1) Domain-Pop vs. Sichtbarkeitsindex und 2) Anzahl Links vs. Sichtbarkeitsindex untereinander dar.

    Streudiagramm Domain-Pop vs. Sichtbarkeit

    Streudiagramm Anzahl Links vs. Sichtbarkeit

    Auswertung des Streudiagramms
    Auch bei der zweiten Grafik mit dem Faktor „Anzahl Links“ erkennt man, dass mehr externe Links im Schnitt zu mehr Sichtbarkeit führen. Ebenfalls lässt sich der Verlauf einer „Grenze des Machbaren“ erkennen. Im oberen linken Bere…
    Suchmaschinen- und SEO-Blog – SISTRIX GmbH

  • Tag Archives: Links

  • Matt McCarthy und die gekauften Links

    Juli 24, 2012 2:08 pm - Posted by admin Category:SEO + SEM

    Die Anfänge des kalten Krieges waren in den USA durch intensiven Antikommunismus geprägt: Joseph McCarthy schwang sich zum öffentlichkeitswirksamsten Verfolger aller Andersdenkenden auf. Waren es vorher noch Gründe und Tatsachen, die für eine Entlassung aus dem Staatsdienst nötig waren, reichten danach anonym vorgetragene „angemessene Zweifel“ aus. In publikumswirksamen Gerichtsprozessen wurden zahlreiche Exempel statuiert während Denunzianten Informanten von Vergünstigungen profitierten. Die Ära Joseph McCarthys ist seitdem ein Synonym für das Vorgehen, durch Hysterie, …
    Suchmaschinen- und SEO-Blog – SISTRIX GmbH