• E-commerce Solution

    Umsatz machen… … 24 Stunden am Tag, 365 Tage im Jahr. Die Anzahl der sogenannten Webshops oder eShops auf dem Marktplatz Internet steigt täglich an.

    Read More
  • Link Building

    Während bei der Onpage- oder Onsite-Optimierung einer Webseite vornehmlich die Struktur und der Inhalt optimiert werden, fokussiert man beim Linkaufbau in erster Linie das Umfeld der betreffenden Webseite. Beim Linkaufbau versucht man die Anzahl der auf die eigene Webseite verweisenden …

    Read More
  • Content Management

    Open Source Software aus Überzeugung Ein Tätigkeitsschwerpunkt von hauptsache.net ist die Entwicklung von Lösungen unter Verwendung von Open Source Software.

    Read More
  • Web Development

    Comming soon!

    Read More
  • SEO Consulting

    Wie „denken“ Suchmaschinen? Suchmaschinen arbeiten auf unterschiedliche Art und Weise. 

    Read More

    Monthly Archives: Januar 2014

  • Risiko Domainumzug und Rankings bei Google

    Januar 29, 2014 1:14 am - Posted by admin Category:SEO + SEM

    Eigentlich sollte der Umzug einer Domain auf eine neue Domain relativ schadlos für die Google-Rankings verlaufen, wenn man sich konsequent an die Anweisungen hält. In der Praxis gibt es aber Beispiele, die einen vermuten lassen, dass Domainumzüge ein bedeutsames SEO-Risiko beinhalten.

    theguardian.com verliert 50 Prozent Sichtbarkeit

    Am 30. Juli 2013 ist die Website der britischen Tageszeitung The Guardian von der Domain guardian.co.uk auf die Domain theguardian.com umgezogen. Infolgedessen fiel der Sichtbarkeitsindex von etwa 550 Punkte (guardian.co.uk) auf ein Niveau von rund 280 Punkte (theguardian.com) bei Google UK. Ein Verlust von fast 50 Prozent.

    Domainumzug The Guardion (Sichtbarkeit Google UK)

    Domainumzug The Guardion (Sichtbarkeit Google UK)

    Erst nach drei Monaten stieg die Sichtbarkeit Mitte November wieder auf das alte Niveau.

    home24.de verliert dauerhaft

    Wie die nächste Grafik zeigt, ging ebenfalls bei dem Umzug von moebel-profi.de auf home24.de viel Sichtbarkeit verloren. Auch bei diesem Beispiel fiel die Sichtbarkeit um fast.50 Prozent von 21,387 Punkte (moebel-profi.de; 30.01.2012) auf 11,053 Punkte (home24.de; 06.02.2012).

    Domainumzug Home24 (Google DE)

    Domainumzug Home24 (Google DE)

    Bei dem Möbelshop der Samwer-Brüder aus der Start-up-Schmiede Rocket Internet kann man ausreichend SEO-Know-how unterstellen, um gravierende SEO-Fehler beim Domainumzug auszuschließen. Im Gegensatz zu theguardian.com kann man bei diesem Beispiel keine Rückkehr auf das alte Niveau nach drei Monaten beobachten. Verantwortlich sind dafür wahrscheinlich Google-Updates in Zusammenhang mit einem sportlichen Linkaufbau der Domain.


    tz online verliert über 75 Prozent

    Ein sehr frisches Beispiel ist der Umzug der Tageszeitung tz München aus dem Hause Ippen von tz-muenchen.de auf tz.de. Auch dieser Umzug wurde von viel SEO-Know-how begleitet. Trotzdem lag der Sichtbarkeitsindex von tz.de in den vergangenen Wochen seit dem Umzug deutlich unter dem alten Niveau von tz-online.de.

    Domainumzug tz online (Google DE)

    Domainumzug tz online (Google DE)

    Aus SEO-Sicht erschwerend kam in diesem Fall auch noch ein Relaunch mit dem damit verbundene radikale Umstellung des gesamten Frontends hinzu. Es wurde mir auf Nachfrage versichert, dass beim tz-Umzug das Tool zur Adressänderung in den Webmaster-Tools genutzt wurde. Ebenfalls wurden umfangreiche 301-Weiterleitungen eingerichtet.

    Ich drücke dem Team beide Daumen, dass wie bei theguardian.com die alte Sichtbarkeit nach spätestens drei Monaten wieder zurück kommt. Die Domain habe ich auf meine Watchlist gesetzt und werde die Entwicklung gespannt verfolgen.

    Werden beim Domainumzug nicht alle Eigenschaften der alten Domain übertragen?

    Die Sichtbarkeitsverluste nach dem jeweiligen Domainumzug der drei genannten Beispiel lässt vermuten, dass Google eventuell nicht (sofort) alle Eigenschaften der alten Domain auf die neue Domain übertragen hat. Man kann hier an Eigenschaften wie Trust und/oder Nutzersignale denken. Aber auch an Eigenschaften wie PageRank und dem damit verbundenen Crawling- und Indexierungsbudget. Eventuell muss Google auch alle bestehenden Links erst neu crawlen, damit die Weiterleitung erkannt und die Links für die neue Domain gewertet werden.

    Der Sichtbarkeitsverlauf von tz.de ähnelt bisher der Entwicklung einer durchaus starken, aber ganz neuen Domain, bei der Google über noch keine ausführliche Daten-Historie verfügt. Zur Veranschaulichung zeigt die folgende Grafik die Entwicklung von tz.de mit der im September in Deutschland gestarteten Domain huffingtonpost.de.

    Vergleich tz.de mit huffingtonpost.de

    Vergleich tz.de mit huffingtonpost.de

    Sammelt Google erst Nutzerdaten, bevor der Domain mehr Sichtbarkeit in den SERPs eingeräumt wird, oder findet eine Trust-Berechnung inklusive Weiterleitung nur in längeren Update-Zyklen statt?

    Ist Google bei Domainumzügen vorsichtig, um sich vor Spam zu schützen?

    In der Vergangenheit war es eine beliebte SEO-Technik, eine abgestrafte Website durch einen Domainumzug wiederzubeleben. Ein Beispiel dafür ist der Umzug von misterinfo.de auf misterinfo.com. Für einen gewissen Zeitraum konnte so erfolgreich ein totes Pferd geritten werden.

    Domainumzug Misterinfo (Google DE)

    Domainumzug Misterinfo (Google DE)

    Es wäre verständlich, wenn Google die Qualität der Suchergebnisse schützen möchte und bei Domainumzügen vorsichtiger geworden ist, um den Erfolg solcher Techniken zu minimieren.

    Beispiel für erfolgreichen Domainumzug

    Es gibt selbstverständlich auch Fälle, bei denen die Sichtbarkeit komplett übergeben wurde. Als Beispiel kann man den Umzug von seokai.com auf search-one.de nennen.

    Domainumzug Search One (Google DE)

    Domainumzug Search One (Google DE)

    Hierbei handelt es sich allerdings um eine Domain, die insgesamt nicht über so viele Rankings und so viel Sichtbarkeit verfügt wie die Website einer großen Tageszeitung oder eines großen Online-Shops. Eventuell stößt man in dieser Größenordnung noch nicht an eine „Trustgrenze“ bei Google.

    Wie sind Eure Erfahrungen mit Domainumzügen? Kennt Ihr weitere Beispiele für gelungene und weniger gelungene Umzüge? Es würde mich freuen, wenn wir hier in den Kommentaren noch ein paar Beispiele sammeln und gegenseitig ein paar Tipps austauschen können.

    The post Risiko Domainumzug und Rankings bei Google appeared first on SISTRIX.

    SISTRIX

  • Monthly Archives: Januar 2014

  • Matt Cutts sagt Links in Gastbeiträgen den Kampf an

    Januar 21, 2014 1:10 pm - Posted by admin Category:SEO + SEM

    Heute nacht veröffentlichte Matt Cutts, Head of Googles Webspam Team, in seinem Blog einen neuen Post mit dem Titel „The decay and fall of guest blogging for SEO“ (Der Verfall und Niedergang von Gastbeiträgen zu SEO-Zwecken).

    Matt warnt in dem Beitrag ausdrücklich davor, 2014 Gastbeiträge für den Linkaufbau zu verwenden. Wenn diese Follow-Links enthalten, wäre das ein eindeutiger Verstoß gegen die Google Richtlinien. Er betont in einem Update des Artikels, dass selbstverständlich jeder auf seiner Website machen kann, was er möchte und Gastbeiträge aus der Sicht von Google nicht grundsätzlich schlecht sind, wenn sie andere Marketingzwecke verfolgen. Allerdings sollten Links in den Beiträgen wie bei Werbeeinbindungen auf Nofollow gesetzt werden, um von Google nicht als Spam angesehen zu werden.

    Matt Cutts und John Mueller hatten sich sch schon in der Vergangenheit kritisch über das Thema Guest Blogging geäußert, aber bisher nicht so klar und eindeutig. Es ist davon auszugehen, dass Google in Kürze den Worten Taten folgen lässt.

    Offen lässt es Matt, in welcher Form Google gegen Links aus Gastbeiträgen vorgehen wird. Denkbar wäre grundsätzlich drei Varianten:

    1. Berücksichtigung von Links aus Gastbeiträgen bei manuellen Penalties im Webspam Team
    2. Integration in bestehenden automatischen Filtern wie den Pinguin Updates
    3. Google erweitert seinen Zoo um ein weiteres Tier und veröffentlicht einen neuen Filter, der spezielle gegen Links aus Gastbeiträgen ausgerichtet ist

    Was glaubt Ihr, welchen Weg Google einschlagen wird?

    The post Matt Cutts sagt Links in Gastbeiträgen den Kampf an appeared first on SISTRIX.

    SISTRIX

  • Monthly Archives: Januar 2014

  • Zurückgefragt: Interview mit Andre Alpar

    Januar 17, 2014 7:16 pm - Posted by admin Category:SEO + SEM

    Im Dezember veröffentlichte Andre Alpar das Buch „SEO auf Deutsch!“. Inhalt des Buches sind 33 Interviews mit bekannten SEOs aus Deutschland. Über die Weihnachtsfeiertage hatte ich Zeit in dem Buch zu lesen. Schon nach wenigen Seiten wurde klar, dass ich es ganz schnell verschlingen werden.

    Obwohl ich viele Interviewpartner aus dem Buch persönlich kenne, habe ich bei der Lektüre viel Neues erfahren und noch einmal ein ganz anderes Bild von den einzelnen Personen gewonnen. Möglich wurde das durch eine bunte Mischung aus persönlichen und beruflichen Fragen. Das war sehr spannend. Jetzt möchte ich auf diese Weise auch mehr über Andre Alpar, den Autor des Buches, erfahren und habe ihm daher die gleichen Fragen gestellt.

    Zur Person:

    Andre AlparAndre Alpar ist geschäftsführender Gesellschafter der SEO-Agentur AKM3 und seit über 15 Jahren im Bereich Online Marketing tätig. Seit 2008 war er strategischer Online Marketing Berater in leitender Funktion bei Rocket Internet und in dieser Funktion für Plattformen wie beispielsweise eDarling, Zalando und Groupon, verantwortlich. Darüber hinaus engagiert er sich als Business Angel bei Internet Start-Ups. Insgesamt verfügt er über 30 Beteiligungen in seinem Portfolio. Als Veranstalter rief er 2010 die Online Marketing Konferenz OMCap ins Leben.

    Hanns Kronenberg: Hallo Andre, wie kamst Du auf die Idee für das Buch „SEO auf Deutsch!“ und was hat Dich bewogen, dieses Projekt umzusetzen?

    Andre Alpar: Dazu habe ich hier schon mal ausführlicher etwas geschrieben. Es ist eine Mischung aus dem OMReport Podcast (www.omreport.de und www.omreport.com), den Interviews, die ich in meinem ersten Buch (www.ombuch.de) veröffentlicht habe, und den großen Communityposts, die wir auf dem AKM3 Blog gemacht haben wie z.B. “44 kreative Linkbuilding-Ideen made in Germany“. Dann dachte ich noch der Sommer 2013 wird eher ruhiger und auf einmal ist man Hals über Kopf in einem Riesenprojekt und wenn man es mal angefangen hat, dann will man es auch gut machen.

    Hanns Kronenberg: Das ist Dir aus meiner Sicht gelungen. Wie war das Feedback auf das Buch?

    Andre Alpar: Ich glaube, es kam zu einer ungünstigen Zeit – also zwischen den Jahren – heraus. Daher weiß ich noch nicht, ob so viele Leute wirklich schon darauf aufmerksam geworden sind. Wir wollen außerdem auf der Seite zum Buch bald noch eine ausführliche Leseprobe bereitstellen. Diejenigen, die schon in den Genuss des Buches gekommen sind, geben einheitlich gutes Feedback. Wenn man es erstmal versucht zu erfassen, erscheint es etwas trivial, aber wenn man ihm eine Chance gibt und reinliest, merkt man, wie viele neue Sachen man entdecken kann und man findet auch deutliche Hinweise auf die Zukunft von SEO und Online Marketing, die man aus den Aussagen der Experten ableiten kann.

    Hanns Kronenberg: Dann versuchen wir einmal den Menschen Andre Alpar zu entdecken. Wie alt bist Du?

    Andre Alpar: Status quo 37 Jahre alt

    Hanns Kronenberg: Und wie ist Dein Familienstand?

    Andre Alpar: Verheiratet

    Hanns Kronenberg: Habt ihr Kinder?

    Andre Alpar: Ja zwei: eine Tochter und einen Sohn

    Hanns Kronenberg: Wie sieht es mit Haustieren aus?

    Andre Alpar: Zählen Staubflöhe? Sonst eher nicht.

    Hanns Kronenberg: Wo und wie wohnst Du?

    Andre Alpar: In einer Mietwohnung in Berlin Mitte aktuell. Ende des Jahres ziehen wir ins etwas familienfreundlichere Berlin Charlottenburg.

    Hanns Kronenberg: Was sind Deine Hobbies?

    Andre Alpar: Seit Nachwuchs da ist, sind in meinem Zeitbudget die Hobbies über Bord gegangen. Habe viele Jahre lang WingTsun gemacht und im Winter gibt es nichts Schöneres als Schneesport. Schwimmen mag ich sehr gerne.

    Hanns Kronenberg: Wie läuft für Dich denn der perfekte freie Tag ab?

    Andre Alpar: Seit Nachwuchs da ist, ist es vor allem das Ausschlafen, wonach man sich sehnt. Ausgedehntes Frühstücken an einem tollen Buffet und dann am liebsten bei gutem Wetter draußen in der Natur mit Familie und Freunden etwas unternehmen. Gerne dabei auch etwas Neues sehen, erleben, lernen. Abends gerne nach einem großartigen Steak, dann in einer guten Bar mit Freunden und Kollegen einen guten Gin Tonic genießen und schnacken.

    Hanns Kronenberg: Wo und wie hast Du Deinen letzten Urlaub verbracht?

    Andre Alpar: Wir waren zwischen den Jahren mit der Familie im Schwarzwald. An zwei Tagen habe ich sogar “frei” bekommen und war die Pisten auf dem Feldberg unsicher machen.

    Hanns Kronenberg: Was würdest Du denn machen, wenn Du ein Jahr lang nicht arbeiten müsstest?

    Andre Alpar: Noch viel mehr Zeit mit meinen Kids verbringen und jeden Tag Zeit für Sport haben. Sonst vielleicht noch mehr und ausführlicher verreisen. Eventuell mal ordentlich Spanisch lernen.

    Hanns Kronenberg: Und wie sähe Dein Leben aus, wenn Du kein SEO geworden wärst?

    Andre Alpar: Sicherlich unternehmerisch und sicherlich irgendwo zwischen IT und Wirtschaft. Den Aspekt meines Wesens kann man schwer leugnen.

    Hanns Kronenberg: Was hast Du studiert oder welche Ausbildung hast Du gemacht?

    Andre Alpar: Ich habe an der TU Darmstadt ein Universitätsdiplom in Wirtschaftsinformatik und auch ein Vordiplom in Psychologie erworben. Letzteres würde man heutzutage wohl einen Bachelor nennen. Außerdem habe ich ein Promotionsstudium an der WHU in Vallendar begonnen, aber nicht abgeschlossen. Das Unternehmertum kam mir da dazwischen.

    Hanns Kronenberg: Was waren Deine beiden letzten beruflichen Stationen?

    Andre Alpar: Vor der AKM3 habe ich 3,5 Jahre lang sämtliche SEO Aktivitäten von Rocket Internet Beteiligungen strategisch und fachlich geleitet. Davor hatte ich in der Web-2.0-Welle ein eigenes Startup. Noch davor war ich berufsbegleitend als Affiliate selbständig tätig.

    Hanns Kronenberg: Wie bzw. wieso bist Du überhaupt auf SEO gekommen?

    Andre Alpar: Reiner Zufall. Anno 1998 habe ich auf Hawaii bei einer Yacht-Vermietungs- und Verkaufsgesellschaft mit einem deutschen Inhaber ein Praktikum gemacht. Das würde man heutzutage inhaltlich wohl mit Web-Development beschreiben. Die Seite lief damals schon auf mehreren Sprachen, u.a. Japanisch, und dann sowohl auf Unix als auch Windows Servern. Der Chef kam irgendwann auf mich zu und meinte: “Da gibt es doch diese Suchmaschinen – schau mal ob wir Besucher von da bekommen können”. Das war die Prä-Google-Ära. Schön mit Keywordstuffing und weißer Schrift auf weißem Hintergrund. Und seit dem bin ich vom Thema eigentlich nicht weggekommen.

    Hanns Kronenberg: Würdest Du rückblickend etwas anders machen? Wenn ja, warum?

    Andre Alpar: Wahrscheinlich nichts. Am Ende sieht man, dass auch die schwierigen Sachen, die man durchlebt hat, irgendwo einen Sinn hatten und ein guter und wichtiger Mosaikstein für das gesamte Bild sind. Alles fein.

    Hanns Kronenberg: Wie sieht Dein Arbeitsplatz aus, wie darf man sich das dort vorstellen?

    Andre Alpar: Ich bin praktisch jeden Tag im familiären AKM3-Großraum-Office in Berlin Kreuzberg. Da haben wir jetzt ca. 1.000 Quadratmeter, die vom Flair sehr “startup-ig” sind. Wenn ich nicht da bin, dann beim Kunden oder auf einer Konferenz beim Vortragen.

    Hanns Kronenberg: Wie sind in der Regel Deine Arbeitszeiten? Wie sieht Dein typischer Arbeitstag aus?

    Andre Alpar: Oft relativ regulär, aber gerade wenn man ganztags beim Kunden ist, kann es schon mal vorkommen, dass man sehr viele Stunden außer Haus ist.

    Hanns Kronenberg: Was sind in Deinen Augen die Top 3 SEO-Tools, die unverzichtbar sind?

    Andre Alpar: Hirn und dann viel weiter hinten Google Webmaster Tools, Sistrix, Searchmetrics, Onpage.org und Strucr.

    Hanns Kronenberg: Welche Social-Media-Netzwerke nutzt Du? Wie häufig und wofür?

    Andre Alpar: Facebook, Google+, Twitter und Xing. Ich glaube, ich nutze alle Netzwerke etwa in ähnlicher Mischung beruflich und privat. Facebook sicher am meisten, da es für mich am interaktivsten ist.

    Hanns Kronenberg: Wie und wo bildest Du Dich fort in Sachen SEO?

    Andre Alpar: Am wertvollsten hier sind Gespräche mit Kollegen und Kunden und unternehmensinterne SEO Experimente. Das wird hervorragend ergänzt durch Konferenzen, die eher auf Weiterbildung ausgerichtet sind und das Lesen vieler, vieler Blogbeiträge und Magazinartikel.

    Hanns Kronenberg: Welche SEO-Blogs liest Du da? Bist Du in SEO-Foren aktiv? Hörst Du fachliche Podcasts? Welche Magazine liest Du?

    Andre Alpar: Ich habe in meinem Feedreader sicher über 200 deutschsprachige und englischsprachige Blogs. Foren haben ihren Wert für mich vor ca. 5 Jahren verloren. Ich bin allerdings in einer Google+ Gruppe namens „SEO auf Deutsch“ sehr aktiv und das ist ja „forenartig“, aber eben nicht anonym. Dadurch sind die Inhalte oft ernsthafter und hilfreicher. Die Website Boosting und T3N sind für mich Pflichtlektüre. Außer meinem Postcast OMReport höre ich eher nicht-SEO Podcasts.

    Hanns Kronenberg: Besuchst Du Messen/Konferenzen? Wenn ja, welche und warum?

    Andre Alpar: Wenn man selbst viel als Speaker und in meinem Fall sogar Veranstalter der OMCap und Mitveranstalter der PPC Masters unterwegs ist, bestimmt das sehr stark die Reiseroute. Ich halte auf diversen Events pro Jahr ca. 30 Vorträge. Rein als Zuhörer plane ich für dieses Jahr die Online Marketing Rockstars und die SMX Advanced in Seattle zu besuchen.

    Hanns Kronenberg: Mit wem würdest Du Dich gerne über SEO bzw. Online Marketing austauschen?

    Andre Alpar: Mit denjenigen, die Marketing für große Marken und Werbetreibende machen. Ich würde gerne mehr darüber lernen, wo sich aus deren Sicht Aktivitäten dieser Unternehmen im digitalen Bereich hin entwickeln werden.

    Hanns Kronenberg: Wie würdest Du Neueinsteigern empfehlen SEO zu lernen?

    Andre Alpar: Wenn jemand hauptberuflich als SEO und im Online Marketing arbeiten möchte, kann ich zu einem Berufseinstieg in einem größeren Inhouse-Team oder einer Agentur raten. Und dort würde ich insbesondere empfehlen zu erfragen, wie Mitarbeiter weitergebildet werden. Wer eher nebenberuflicher SEO-Affiliate sein möchte, für den ist es am wichtigsten mit einer eigenen Website zu starten und zu experimentieren. Beide Karrierepfade sollten so ergänzt werden, wie ich es einige Fragen zuvor für meine eigene Weiterbildung beschrieben habe.

    Hanns Kronenberg: Was war die erste Domain, auf der Du erste SEO-Schritte gemacht hast?

    Andre Alpar: Gamehoo.de. Das war zu der Zeit wo Yahoo die geilste Seite des Internets war und ich habe das Design eins-zu-eins kopiert, auf Spiele gemünzt und auf meiner Domain dann kostenlose Onlinespiele angeboten. Das Ding hat ratzfatz gerankt und ich bekam einen Anruf vom Yahoo Justiziar. Wenig später habe ich dann mit einem neuen Design und einer neuen Domain weitergemacht. Das war deutlich nachhaltiger – wie man sich vorstellen kann.

    Hanns Kronenberg: Was war Dein persönlicher Top-Link?

    Andre Alpar: Die Domain weiß ich nicht mehr ganz genau, aber es war Open Source Software für Videobearbeitung. Es schien erst gar keinen Weg zu geben da drauf zu kommen. Die Inhaber waren wie taub für alle unsere Vorschläge. Wir haben dem Entwicklerteam eine ziemlich geile Kamera gekauft für ca. 500 Euro – oder waren das damals noch D-Mark? – und waren auf der PR8er Domain einer der einzigen Links und daher war er extrem wertvoll, da schwer imitierbar.

    Hanns Kronenberg: Was war das erste Keyword, für das Du zu ranken versucht hast?

    Andre Alpar: Onlinespiele

    Hanns Kronenberg: War das auch das erste Keyword, für das Du auf 1 gerankt hast?

    Andre Alpar: Ich glaube, erst rankte „Kostenlose Onlinespiele“ und danach dann aber zeitnah „Onlinespiele“. Noch später dann war ich zu „Spiele“ auf 1.

    Hanns Kronenberg: Was war Dein größter SEO-Patzer?

    Andre Alpar: In ca. 2005 habe ich ein Startup namens Hitflip (Hitmeister) gegründet. Da war ich in einer Phase so hyperaktiv im Linkaufbau, dass zwar einerseits die Domain eine Zeit lang durch ein lustiges Tagging-System auf fast alles innerhalb von wenigen Tagen ranken konnte, aber andererseits habe ich sie dann so dermaßen aus dem Index geschossen, dass man sie nicht mal für den Markennamen finden konnte. Und das ging ca. sieben Monate so. Das war schon echt Mist für das Unternehmen. Seitdem ist meine Ausrichtung beim SEO deutlich in Richtung Vorsicht gepolt. SEO ist so ein genialer Kanal und so nachhaltig und günstig, dass man es nicht nötig haben sollte als Unternehmen auf Tricks und Abkürzungen zu setzen. Dieser Bereich bleibt den SEO-Affiliates vorbehalten, die auch mal eine Domain abschießen können, aber im Umfeld von Corporate/Enterprise SEO sind einfach andere Strategien, Taktiken und Prozesse gefragt.

    Hanns Kronenberg: Was ist Dein persönliches „SEO-Steckenpferd“ und warum? Was fasziniert Dich daran?

    Andre Alpar: Das ist sicherlich internationales und multilinguales SEO. Ich finde es großartig wie sehr „die Wahrheit“ über das, was SEO ist und wie es funktioniert von Land zu Land so unterschiedlich sein kann, und diese Vielfalt zu kennen und erkennen macht mir großen Spaß. Wenn man es einmal durchdrungen und gemeinsame Nenner identifiziert hat, kann man damit super Sachen erreichen.

    Hanns Kronenberg: Betreibst Du selbst einen Blog? Wenn ja, worüber schreibst du? Und was ist Deine Motivation den Blog zu betreiben?

    Andre Alpar: Gefühlt hat der Blog zwei Funktionen. Zum einen hat er etwas tagebuchartiges und man dokumentiert damit persistent vergangene, geschehene Dinge. Zum anderen nutze ich ihn zum Publizieren von News von denen ich denke, dass sie SEOs oder andere Online Marketing Fachleute weiter bringen. Letzteres ist ohnehin für mich ein Motivator für viele Dinge. Mein Glaube ist, dass ich dazu beitragen kann und möchte, dass die Szene/Branche inhaltlich besser wird. Die Aufklärung, Weiterbildung und Professionalisierung in Sachen SEO und Online Marketing sind mir Herzensangelegenheiten.

    Hanns Kronenberg: Was magst Du an SEO und was nervt Dich an SEO bzw. der Branche?

    Andre Alpar: Genial finde ich, dass die Branche noch überschaubar ist und voll sehr vielfältiger Typen und das macht sie spannend und lehrreich. Schade finde ich, dass einige es nicht schaffen über ihr eigenes gedankliches Silo hinwegzuschauen, um die Vielfalt von SEO zu erkennen. Daher mangelt es dann einigen an Verständnis und Kommunikation.

    Hanns Kronenberg: Für welche Marke/Webseite würdest Du gerne SEO machen?

    Andre Alpar: Am liebsten eine Dachstrategie für SEO und andere angrenzende Online Marketing Kanäle erarbeiten für alle Länder und Marken eines großen internationalen Konsumgüterherstellers.

    Hanns Kronenberg: Was sind die wichtigsten angrenzenden Online-Marketing-Disziplinen, die man als SEO kennen sollte und warum?

    Buch SEO auf Deutsch! von Andre AlparAndre Alpar: Es hat einen Grund, dass ich ein allgemeines Online-Marketing-Einsteigerbuch geschrieben habe. Ich glaube, man kann nur richtig gut in seinem Spezialbereich sein, wenn man alle angrenzenden Fachbereiche wenigstens ein bisschen versteht. Das muss das Ziel sein. Im angelsächsischen Raum schwebt da auch der Begriff „T-shaped Marketer“ herum. Das Ziel der fachlichen Entwicklung soll so sein wie der Buchstabe „T“. Einerseits thematisch breit im Verständnis und andererseits tief im Können und Wissen in seinem Kernbereich. Das finde ich eine super Maßgabe, die man sich als Ziel setzen kann.

    Hanns Kronenberg: SEO wird in Zukunft …?

    Andre Alpar: SEO wird in Zukunft vielfältiger, komplexer und professioneller werden und daher noch viele Jahre lang tolle Möglichkeiten bieten und großen Spaß machen.

    Das Buch “SEO auf Deutsch!” von Andre Alpar enthält 33 Interviews, die er mit Köpfen der Suchmaschinenoptimierung im deutschsprachigen Raum geführt hat. Es ist im Buchhandel in der gedruckten Version und als E-Book erhältlich (Bestellinks auf der Seite zum Buch).

    The post Zurückgefragt: Interview mit Andre Alpar appeared first on SISTRIX.

    SISTRIX

  • Monthly Archives: Januar 2014

  • Computerlinguistik als Google-Rankingfaktor?

    1:10 am - Posted by admin Category:SEO + SEM

    Abseits von “authentischen Links” und “gutem Content” gibt es eine ganze Reihe weiterer Faktoren, die Google in Zukunft für das Ranking von Websites verwenden könnte. Ich habe mir aktuelle Forschungsergebnisse der Computerlinguistik angeschaut und aus Sicht eines Suchmaschinenoptimierers interpretiert.

    Die Website der Conference on Intelligent Text Processing and Computational Linguistics.

    Computerlinguisten können vieles. Nur keine hübschen Websites bauen!

    Auch wenn die Website der Conference on Intelligent Text Processing and Computational Linguistics (kurz CICLing) wie ein schlechter Scherz aussieht, ist sie inhaltlich hoch interessant und liefert Stoff für viele mögliche Rankingfaktoren, die Google heute oder in der Zukunft berücksichtigen könnte. Ich habe mir 19 Werke herausgepickt, die bei der CICLing 2013 akzeptiert wurden, und habe sie unter den Gesichtspunkten Brand, Content, SEO-Tools, Architektur und Authorship betrachtet.

    Erklärung

    Die folgenden Zitate sind immer nach diesem Schema aufgebaut:

    Titel
    relevantes Zitat
    Autoren

    Brand

    Topic-oriented Words as Features for Named Entity Recognition:
    Topic-oriented words are often related to named entities and can be used for Named Entity Recognition.
    Zhang, Cohn und Ciravegna [Springer]

    Zhang et al. versuchen hier nicht, die Brand-Keyword-Zuordnung als etwas Neues zu verkaufen. Sie setzen sie in ihrer Einleitung als etabliertes Wissen voraus, das keiner weiteren Erklärung bedarf. Was das mit SEO zu tun hat? Ein Beispiel: Auf der Website von Apollo-Optik kommt der Begriff “Brille” nicht im Title und nur einmal im Content vor. Auch unter den sieben häufigsten Linktexten (geprüft mit MajesticSEO und SEOkicks) ist “Brille” nicht zu finden.

    Die Linktexte der Domain Apollo.de

    Die Linktexte der Domain Apollo.de (Quelle: MajesticSEO)

    Warum also rankt Apollo.de bei Google auf der ersten Seite für “Brille”? Vermutlich weil Google Apollo-Optik als Brand erkannt hat, der in diversen Kontexten zusammen mit “Brille” erwähnt wird. Ein Kontext kann zum Beispiel ein Text auf einer vertrauenswürdigen Internetseite sein. Aber auch Suchanfragen der Form “Apollo Optik Brille” dürften berücksichtigt werden.

    Verwandte Suchanfragen zu Apollo Optik

    Verwandte Suchanfragen zu Apollo Optik (Quelle: Google)

    In den verwandten Suchanfragen von Google sieht man diesen Effekt sehr deutlich. Neben der Gleitsichtbrille, Filialen und Gutscheinen wird auch auf ähnliche Brands wie Fielmann und Abele Optik verwiesen.

    Wenn Du also einen Brand aufbauen (oder faken :-D ) möchtest, dann sorg dafür, dass Dein Brand in möglichst vielen Kontexten zusammen mit den Keywords genannt wird, die zusammen mit den wichtigsten Brands in Deinem Segment verwendet werden.

    Extracting phrases describing problems with products and services from Twitter messages:
    Automatic extraction of problem descriptions from Twitter data. The descriptions of problems are factual statements as opposed to subjective opinions about products/services.
    Gupta [PDF]

    Gupta zeigt Verfahren, mit denen aus Tweets über Produkte automatisch Problembeschreibungen zu diesen Produkten abgeleitet werden können. Wichtig ist, dass die Unterscheidung zwischen subjektiver Meinung und objektiver Problembeschreibung Teil dieses Verfahrens ist.

    Verfahren um Probleme aus Tweets zu extrahieren

    Verfahren um Probleme aus Tweets zu extrahieren

    Google könnte erkennen, wenn schlecht über Deinen Brand berichtet wird. Ferner könnte Google für solche Analysen neben Tweets auch E-Mails, Chats, Kurznachrichten und Telefonate nutzen. Dank GMail, Google Talk, Google+, Hangouts, Chrome, Android, Chrome OS und Google Voice alles Dinge, auf die Google Zugriff hat!

    Entity Linking by Leveraging Extensive Corpus and Semantic Knowledge:
    Linking entities in free text to the referent knowledge base entries, namely, entity linking is attractive because it connects unstructured data with structured knowledge. […] Furthermore, we propose a novel model for the entity linking, which combines contextual relatedness and semantic knowledge. Experimental results on two benchmark data sets show that our proposed approach outperforms the state-of-the-art methods significantly.
    Guo, Qin, Liu und Li

    Noch ein Team von Wissenschaftlern, das sich mit Entitäten im Kontext von Texten beschäftigt. Und ähnliche Entitäten werden auch noch verknüpft. Ich möchte an dieser Stelle erneut auf mein obiges Beispiel hinweisen: Versuch die gleichen Signale wie die großen Brands in Deiner Nische zu bekommen!

    Content

    Cross-Lingual Projections vs. Corpora Extracted Subjectivity Lexicons for Less-Resourced Languages:
    Subjectivity tagging is a prior step for sentiment annotation.
    Saralegi, Vicente und Ugarteburu [Springer]

    Saralegi et al. erfinden hier nicht die automatisierte Ermittlung von Subjektivität; sie setzen sie als bekannt voraus! Daraus folgt, dass Google wissen kann, ob ein Text eine objektive Produktbeschreibung oder ein subjektiver Erfahrungsbericht ist. Wenn Du Texte beauftragst, gib an, ob sie subjektiv oder objektiv geschrieben sein sollen.

    Automatic distinction between natural and automatically generated texts using morphological and syntactic information:
    Our work lies in the field of automatic metrics for assessing text quality. […] to distinguish normal texts written by man, on one hand, from automatically generated texts or automatically processed and intentionally damaged natural texts, on the other hand.
    Tsinman, Dyachenko, Petrochenkov und Timoshenko

    Tsinman at al. können vom Computer generierte Texte mit einer Genauigkeit von 96% erkennen. Also versuch gar nicht erst aus einer Tabelle von Produktdaten einen Text zu generieren.

    Discursive Sentence Compression:
    A method for Automatic Text Summarization by deleting intra-sentence discourse segments. First, each sentence is divided into elementary discourse units and then, less informative segments are deleted.
    Molina, Torres-Moreno, Sanjuan, Cunha und Martínez [PDF]

    Molina et al. sind in der Lage, Texte zu kürzen, in dem ein Algorithmus Textpassagen erkannt, die wenige Informationen enthalten und diese entfernt.

    Beisiel für Text-Komprimierung

    Beisiel für Text-Komprimierung

    Was Du daraus lernen kannst?

    1. Ja, es ist möglich füllende Bullshit-Inhalte zu erkennen.
    2. Nein, es ist nicht gut “wegen Panda” noch 400 Wörter Fülltext an jede Produktbeschreibung zu hängen.

    Automatic Text Simplication in Spanish: A Comparative Evaluation of Complementing Components:
    In this paper we present two components of an automatic text simplication system for Spanish, aimed at making news articles more accessible to readers with cognitive disabilities.
    Drndarevic, Stajner, Bott, Bautista und Saggion

    Wenn es Drndarevic et al. möglich ist, automatisiert simplere Versionen eines Textes zu generieren, dann kann Google auch die Komplexität Deiner Texte erkennen. Schreibe auf einem für Deine Zielgruppe angemessenem Niveau!

    Text Simplification for People with Cognitive Disabilities: A Corpus-based Study:
    This study addresses the problem of automatic text simplification in Spanish for people with cognitive disabilities.
    Stajner, Drndarevic und Saggion

    Stajner et al. liefern ein weiteres Beispiel für automatisierte Simplifizierung von Texten.

    Automatic Detection of Outdated Information in Wikipedia Infoboxes:
    Not all the values of infobox attributes are updated frequently and accurately. In this paper, we propose a method to automatically detect outdated attribute values in Wikipedia. The achieved accuracy is 77%.
    Tran und Cao [PDF]

    Ich hatte Language Arbitrage 2013 bei 50 Leute 100 Steaks als Grundlage für einen Wikipedia-Linkbuilding-Trick vorgestellt. Bereits 2009 hatten sich Adar et al. in ihrer Arbeit Information Arbitrage Across Multi-lingual Wikipedia mit dieser Thematik befasst.

    Language Arbitrage bei Wikipedia

    Ein Modell für Language Arbitrage mit Wikipedia-Infoboxen

    Jetzt haben Tran und Cao eine noch genialere Version gebaut, die über Google auf das komplette Internet zugreift. Und das alles ist so sauber dokumentiert, dass Du es nachbauen kannst!

    Fakten aus Wikipedia mit Hilfe einer Google Suche überprüfen

    Dieses System überprüft Fakten aus Wikipedia mit Hilfe einer Google Suche

    Ich habe diese Arbeit unter “Content” einsortiert, weil Dir klar sein sollte, dass Google auch Fakten aus Deinen (womöglich seit Jahren nicht geänderten) Texten verifizieren kann!

    Automatic Glossary Extraction from Natural Language Requirements:
    We present a method for the automatic extraction of a glossary from unconstrained natural language requirements. We introduce novel linguistic techniques in the identification of process nouns, abstract nouns and auxiliary verbs. The intricate linguistic classification and the tackling of ambiguity result in superior performance of our approach over the base algorithm.
    Dwarakanath, Ramnani und Sengupta [IEEE]

    Zum Mitschreiben: Du schmeißt ein langes Dokument in die Software von Dwarakanath et al. rein und bekommt einen Glossar der relevanten Begriffe raus. Wenn Du ein SEO bist, muss ich Dir nicht erklären, was man damit anstellen kann. Ganz blöd gedacht: Eine große Wikipedia-Kategorie nehmen, alle Artikel mit Länge < 500 Worte rausschmeißen und alle verbleibenden Artikel separat in den “Glossar-Macher” schmeißen. Das Ergebnis mit entsprechendem MarkUp auf {Kategorie}-Lexikon.de stellen und schauen was passiert.

    Facet-Driven Blog Feed Retrieval:
    The faceted blog distillation task retrieves blogs that are not only relevant to a query but also satisfy an interested facet. The facets under consideration are opinionated vs. factual, personal vs. official and in-depth vs. shallow. Experimental results show that our techniques are not only effective in finding faceted blogs but also significantly outperform the best known results over both collections.
    Jia und Yu [PDF]

    Jia und Yu haben ein Information Retrievel System gebaut, mit dem sie nicht nur Blogartikel bestimmen können, die für eine Suchanfrage relevant sind. Sie gehen einen Schritt weiter und prüfen ob die Artikel das Interesse des Suchenden erfüllen. Dafür teilen sie Texte in die folgenden Kategorien ein:

    • Meinung oder Fakten
    • persönlich oder offiziell
    • oberflächlich oder in die Tiefe gehend
    Diese komplexe Formel hilft, Blogartikel einem Suchkontext zuzuordnen

    Diese komplexe Formel hilft, Blogartikel einem Suchkontext zuzuordnen

    Je nach Suchkontext (z.B. abgeleitet aus Suchhistorie, Google+ Profil und aktuellem Standort) kann auch Google relevante Dokumente aus der einen oder anderen Kategorie bevorzugen. Es gilt also wieder: Kläre schon vor der Beauftragung von Texten, welche Ausprägung sie in jeder dieser Dimensionen haben sollen!

    Predicting Subjectivity Orientation of Online Discussion Threads:
    Topics discussed in online forum threads can be subjective seeking personal opinions or non-subjective seeking factual information. Hence, knowing subjectivity orientation of threads would help in satisfying users’ information needs more effectively. Experimental results on two popular online forums demonstrate the effectiveness of our methods.
    Biyani, Caragea und Mitra

    Wenn Biyani et al. erkennen können, ob es in Diskussionen um Fakten oder persönliche Meinungen geht, dann kann Google das auch! Je nach Intention Deiner Seite, solltest Du also eventuell die Moderation der Kommentare und des Forums stärker fokussieren. Das Zauberwort lautet Community Management!

    SEO-Tools

    Analyzing the Sense Distribution of Concordances Obtained by Web As Corpus Approach:
    Some authors have proposed using the Internet as a source of corpora […] based on information retrieval-oriented web searchers. This work analyzes the linguistic representativeness of concordances obtained by different relevance criteria based web search engines. Sense distributions in concordances obtained by web search engines are, in general, quite different from those obtained from the reference corpus.
    Saralegi und Gamallo [Springer]

    Saralegi und Gamallo zeigen, dass Text-Korpora, die auf Dokumenten basieren, die durch Google-Suchen gefunden wurden, in einigen linguistischen Eigenschaften nicht repräsentativ sind. Das bedeutet, dass es unter Umständen nicht ausreicht, die ersten 100 Suchergebnisse für das Keyword “Versicherung” herzunehmen, um mit Maßen wie WDF-p-IDF oder n-Grammen zu rechnen.

    N-Gram-based Recognition of Threatening Tweets:
    We investigate to what degree it is possible to recognize tweets in which the author indicates planned violence.
    Oostdijk und Halteren [Springer]

    Dass Oostdijk und Halteren versuchen, Tweets zu erkennen, in denen die Absicht zur Gewalt ausgedrückt wird, hat nichts mit Online Marketing zu tun und ist hier nur als weiteres Beispiel für die Macht von n-Grammen aufgeführt. Übrigens: Was glaubst Du, wie die NSA vorgeht, wenn sie Deine Facebook-Chats analysiert? ;-)

    Architektur

    Single-Document Keyphrase Extraction in Multiple-Document Topical Keyphrase Extraction:
    Here, we address the task of assigning relevant terms to thematically and semantically related sub-corpora and achieve superior results compared to the baseline performance. […] were considered better in more than 60% of the test cases.
    Berend und Farkas

    Du willst automatisiert Tags und Meta-Keywords für tausende von Dokumenten generieren? Dann solltest Du Dir dieses Verfahren von Berend und Farkas anschauen!

    A knowledge-base oriented approach for automatic keyword extraction from single documents:
    A generic approach for keyword extraction from documents. The features we used are generic and do not depend strongly on the document structure. We show that it improves the global process of keyword extraction.
    Jean-Louis, Gagnon und Charton

    Jean-Louis et al. liefern ein weiteres Verfahren, um automatisiert Tags und Meta-Keywords zu erzeugen.

    Don’t Use a Lot When Little Will Do – Genre Identification Using URLs:
    In this work we build a URL based genre identification module for Sandhan, search engine which oers search in tourism and health genres in more than 10 different Indian languages. While doing our experiments we work with different features like words, n-grams and all grams. Using n-gram features we achieve classification accuracies of 0.858 and 0.873 for tourism and health genres respectively.
    Priyatam, Iyenger, Perumal und Varma [PDF]

    Auch Priyatam et al. nutzen n-Gramme und sind in der Lage mehr als 80% aller URLs ohne Betrachtung des Inhalts thematisch zuordnen.

    In diesem Beispiel liefern 7-Gramme die beste Performance

    In diesem Beispiel liefern 7-Gramme die beste Performance

    Vergiss niemals, dass Google bei aller Rechenpower jede unnötige Berechnung sparen wird, unter Umständen also auch auf diesen Trick zurückgreifen könnte. Pack die relevanten Keywords in die URL!

    Authorship

    The Use of Orthogonal Similarity Relations in the Prediction of Authorship:
    Recent work on Authorship Attribution (AA) proposes the use of meta characteristics to train author models. The meta characteristics are orthogonal sets of similarity relations between the features from the different candidate authors. […] we achieve consistent improvement of prediction accuracy.
    Sapkota, Solorio, Montes-Y-Gómez und Rosso [PDF]

    Sapkota et al. erfinden hier nicht die automatische Zuordnung von Autoren zu Texten. Sie schlagen lediglich einen alternativen Algorithmus dafür vor. Wenn wir davon ausgehen, dass auch Google solche Verfahren einsetzt, könnte es eine ganz dumme Idee sein, von verschiedenen Menschen geschriebene Texte, mit dem Authorship-Markup des eigenen Google+ Profils zu versehen. Ebenso wenig solltest Du Texte eines einzigen Autors mit der Authorship verschiedener Fake-Accounts auszeichnen. Google wird in beiden Fällen merken, dass etwas faul ist und dem Autor und/oder der Domain das Autorenbild in den SERP entziehen.

    Syntactic Dependency-based N-grams: More Evidence of Usefulness in Classification:
    Sn-grams differ from traditional n-grams in the manner of what elements are considered neighbors. In case of sn-grams, the neighbors are taken by following syntactic relations in syntactic trees, and not by taking the words as they appear in the text. Sn-grams can be applied in any NLP task where traditional n-grams are used.
    We describe how sn-grams were applied to authorship attribution. Obtained results are better when applying sn-grams.
    Sidorov, Velázquez, Stamatatos, Gelbukh und Chanona-Hernández [PDF]

    Alles Wichtige zur SEO-Sicht auf klassische n-Gramme kannst Du bei Jens Altmann nachlesen. Eine relevante Ergänzung ist, dass einige auf n-Grammen basierende Verfahren mit sn-Grammen noch besser funktionieren!

    sn-Gramme basieren auf solchen Syntaxbäumen

    sn-Gramme basieren auf solchen Syntaxbäumen

    Außerdem ist die Arbeit von Sidorov et al. ein weiteres Beispiel dafür, dass es möglich ist, einem Text seinen Autor zuzuordnen. Siehe oben für die sich daraus ergebenden Konsequenzen.

    Einschränkungen

    Natürlich habe ich in der Interpretation der Forschungsergebnisse arg übertrieben. Häufig wurden die Verfahren nur auf eine einzige Sprache angewendet und mit wenigen Datensätzen verifiziert. Außerdem folgt daraus, dass sich irgendwo auf der Welt jemand mit einem Thema befasst nicht, dass auch Google dieses Thema auf dem Schirm hat. Dennoch darf nicht außer Acht gelassen werden, dass alle hier referenzierten Arbeiten es durch ein Peer-Review Verfahren geschafft haben, also von unabhängigen Wissenschaftlern, die auf dem gleichen Gebiet wie die Autoren forschen, abgenickt wurden. Und die CICLing ist nicht irgendeine Konferenz, sondern ist B-gerankt, gehört zu den Top 25% nach Download-Anzahl bei Springer, zählt laut Google Scholar zu den 6 wichtigsten Computer Linguistik Konferenzen und laut ArnetMiner zu den 8 wichtigsten NLP-Konferenzen nach Impact Factor. (Achtung: NLP steht in diesem Kontext für Natural Language Processing, also das automatisierte Verarbeiten der natürlichen Sprache!)

    Eine kleine Anmerkung noch: [D]amit nicht jedes Zitat […] komplett verstümmelt aussieht, […] habe ich [relativ] frei zitiert ohne das jedes Mal expliziert zu kennzeichnen.

    Schlusswort

    Ich hoffe, es ist mir gelungen zu vermitteln, dass es in der Computerlinguistik eine ganze Reihe von Entwicklungen gibt, die in den nächsten Jahren für SEOs relevant werden könnten. Obwohl es in der deutschen SEO-Szene studierte Computerlinguisten gibt, setzt sich leider aktuell kaum jemand mit diesen Themen auseinander. Wenn ich den ein oder anderen motivieren konnte, das zu ändern, hat sich dieser Artikel gelohnt :-)

    The post Computerlinguistik als Google-Rankingfaktor? appeared first on SISTRIX.

    SISTRIX

  • Monthly Archives: Januar 2014

  • Bezahlte Links, Spam und Fake-Accounts sind keine Erfindung der SEOs

    Januar 14, 2014 1:07 am - Posted by admin Category:SEO + SEM

    Die ClaqueNeulich bin ich auf einen interessanten Wikipedia-Artikel gestoßen. Es zeigt sich, dass es professionelle Vorläufer von bezahlten Links, Spam und Fake-Accounts schon vor fast 200 Jahren gab. Um 1820 wurde in Paris von Monsieur Sauton bezahlten Applaus bei Theaterstücken und anderen öffentlichen Aufführung angeboten.

    Eine Person, die gegen Entgelt klatschte, wurde Claqueur (frz. claquer „klatschen“) genannt. Die Gesamtheit der Claqueure in einem Theater wird „die Claque“ genannt. Ihre Aufgabe war die „Sicherstellung des dramaturgischen Erfolges“.

    Es ist durchaus erstaunlich, wie groß die Spezialisierungsgrad der Claque im 19. Jahrhundert war, die im Jargon der Pariser auch “Ritter des Kronleuchters” geannt wurden. So gab es:

    • Chauffeurs (Heizer): Sie standen tagsüber vor den Ankündigungen und hatten das Stück vor den Umstehenden zu loben.
    • Chatouilleurs (Kitzler): Sie äußerten sich vor Anfang der Vorstellung und in den Pausen positiv über die Darbietungen.
    • Connaisseurs (Kenner): Sie hatten die Aufgabe, während der Vorstellung positive Bemerkungen fallen zu lassen.
    • Rieurs (Lacher): Sie hatten die Umsitzenden mit ihrem „spontanen“ Gelächter anzustecken.
    • Pleureurs (Heuler): Ihre Aufgabe war es, während rührender Szenen zu schluchzen.
    • Tapageurs (Aufsehenmacher): Sie hatten heftig zu applaudieren.
    • Bisseurs („Zugabe“-Rufer): Sie riefen nach der Vorstellung „Da capo“ und „Zugabe“.

    Es ist hingegen nicht verwunderlich, dass ausgerechnet in diese Zeit die Geburtsstunde der Claqueure zu finden ist. Es war die Zeit, in der sich die Industrialisierung und die kapitalistische Wirtschaftsweise in Europa durchsetzten. Da sich der Erfolg einer öffentlichen Aufführung durch künstliche Publikums-Signale steigern lies, wurde daraus fast zwangsläufig eine professionelle Dienstleistung.

    Auch in TV-Sendungen werden durch Laugh Tracks (auf Tonband aufgenommenes Lachen und Beifall) Zuschauer zum Mitlachen und zu mehr Begeisterung für die Show animiert. Die erste Lachkonserve wurde in der Hank McCune Show im September 1950 verwendet. Ebenfalls wird Studio-Publikum für diesen Zweck eingesetzt und vor der Sendung professionell „angeheizt“. In den 90er Jahren war die Nachfrage nach Warm-Uppern (Publikumsanheizern) mit dem Aufkommen zahlreicher Talk- und Gameshows enorm. “Da wurde jeder, der gerade ein Mikrofon in der Hand halten konnte, und einigermaßen gut ankam, herangezogen”, sagt Christian Oberfuchshuber, einer der gefragtesten deutschen Warm-Upper. Inzwischen ist der große Hype vorbei und es gibt noch eine Gruppe aus etwa zehn Warm-Uppern, die von diesem Beruf leben

    Das gleiche Phänomen wiederholt sich im Internet. Nur die Art des Beifall-Spendens hat sich den Techniken des Mediums angepasst:

    • Bezahlte Links: Sie sollen eine redaktionelle Empfehlung vortäuschen und die Suchergebnisse bei Google durch die Vererbung von PageRank und die Verwendung von attraktiven Linktexten beeinflussen.
    • Linkschleudern: Hierbei handelt es sich um Websites, deren Hauptzweck darin besteht dort künstliche Links aufbauen zu können. Die bekanntesten Formen sind Webkataloge, Artikelverzeichnisse, künstliche Blogs auf Basis von Expired Domains und Social-Bookmarking-Plattformen wie einstmals Mister Wong. Hier nimmt der Fake zum Teil absurde Ausmaße an, so dass ausschließlich die Claque das gesamte Publikum „des (Internet-)Theaters“ bildet.
    • Bezahlte Bewertungen: Sie dienen dazu, die Bewertungsprofile z.B. von Shops, Amazon-Produkten, Google Places und Branchenbucheinträgen besser aussehen zu lassen. Ebenfalls gibt es den umgekehrten Fall, dass Wettbewerber ihre Konkurrenten gezielt negativ bewerten (Dissen). Die Studie „Fake It Till You Make It“ des Marketing-Professors Georgios Zervas, von der Boston University geht davon aus, dass mittlerweile 20 Prozent der Yelp-Bewertungen entweder von konkurrierenden Restaurants oder von bezahlten Rezensenten verfasst werden.
    • Spam- und Fake-Kommentare: Sie haben die Aufgabe eine Diskussion in die gewünschte Richtung zu lenken, werbliche Effekte und wurden vor ein paar Jahren (als es noch gut funktionierte) gerne genutzt, um auf einfache Weise künstliche Links zu erzeugen.
    • Forenspam: Sie haben grundsätzlich die gleiche Aufgabe wie Spam- und Fake-Kommentare, nur dass man sie in Foren uns Frage-und-Antwort-Portalen anstatt in Gästebüchern findet.
    • Gekaufte Freunde: Sie dienen dem Zweck für ein Social-Media-Profil beispielsweise bei Facebook, Twitter oder Google+ durch eine hohe Anzahl von Freunden oder Fans eine statistisch größere Bedeutung vorzutäuschen.
      Fake-Accounts: Sie werden im Netzjargon auch Sockenpuppe genannt und dazu benötigt, um Spam- und Fake-Beiträge abzusetzen. Weitestgehend automatisiert und in Massen gezüchtet werden sie auch in Tausender-Paketen als „Freunde“ verkauft.

    Die Bekämpfung von Fake und Spam ist für alle Internet-Angebote überlebenswichtig, deren Mehrwert hauptsächlich über die Darstellung und Auswertung von Meinungen, Bewertungen sowie Nutzersignalen generiert werden. Wirksame Spam-Filter sind ein entscheidender Wettbewerbsvorteil.

    Google gelingt es mit zunehmendem Erfolg durch die Auswertung weiterer Daten die Internet-Claqueure zu entlarven und deren Signale auszufiltern. Dabei ist es sicherlich hilfreich, wenn man nicht nur über die Suchdaten der erfolgreichsten Suchmaschine, sondern mit Google Chrome über einen sehr weit verbreiteten Browser verfügt und mit Android eines der beiden führenden Betriebssystem für mobile Geräte besitzt. Auf diese Weise lassen sich viele Daten für wirksame Filter sammeln, die den meisten Wettbewerbern fehlen.

    Anbieter wie Yelp werden durch neue Dienste wie Foursquare herausgefordert, die über wirksamere Fake-Filter in Form eines Check-in vor Ort und umfangreiche Profildaten verfügen.

    Auch wenn es sich bei dem Rennen „Fake versus Fake-Filter“ um ein ständiges Katz-und-Maus-Spiel handelt, gibt es doch deutliche Anzeichen, dass im Bereich der Suchmaschinenoptimierung Fake und Spam ihren Zenit überschritten haben und langsam außer Mode kommen, so wie auch die Claqueure im ersten Viertel des 20. Jahrhunderts wieder außer Mode kamen. Ein Blick auf die Gewinner und Verlierer im SISTRIX Sichtbarkeitsindex des letzen Jahres unterstreicht diesen Gedanken.

    Im Zuge diese Entwicklung wird sich hoffentlich auch der Ruf der SEO-Branche bessern, die über wesentlich mehr Aufgaben, Werkzeuge und Tätigkeiten verfügt, als nur Fake und Spam zu verbreiten. Eine suchmaschinenfreundliche und barrierefreie Gestaltung von Websites sowie eine marktorientierte Ausrichtung des Contents auf die Nachfrage der Nutzer von Suchmaschinen hilft das Web besser zu machen, nicht schlechter. Diese positive Seite von SEO wurde in der Öffentlichkeit machmal übersehen.

    Gleichwohl wird das Netz nie frei sein von Spam und Fake, so wie uns auch Laugh Tracks in TV-Sendungen weiterhin begleiten werden. Ihre Verbreitung wird immer stark davon abhängen, wie wirksame die gegen sie verwendeten Filter in den jeweils einzelnen Bereichen arbeiten, wie lukrativ es ist, solche Filter anzubieten und wie lukrativ es ist, diese Filter wiederum zu umgehen.

    The post Bezahlte Links, Spam und Fake-Accounts sind keine Erfindung der SEOs appeared first on SISTRIX.

    SISTRIX

  • Monthly Archives: Januar 2014

  • Wie verbreitet sind Social-Signals?

    Januar 11, 2014 1:08 am - Posted by admin Category:SEO + SEM

    Nutzt Google aktuell Social-Signals für das organische Ranking? Diese Frage wird in der SEO-Branche bereits seit geraumer Zeit intensiv diskutiert. Während Google in Person von Matt Cutts dementiert, dass GooglePlus-Votes in den allgemeinen Algorithmus einfließen, ist der Gedanke für uns natürlich verlockend, dass man die lästigen Gästebucheinträge und Spam-Kommentare einfach durch ein paar schnell zusammengeklickte Fake-Personen in den sozialen Netzwerken ersetzen kann. Doch wie praktikabel ist das für Google eigentlich?

    Um einen neuen Blick auf diese Frage zu ermöglichen, habe ich untersucht, wie weit Social-Signals in freier Wildbahn verbreitet sind. Dafür habe ich für 1.000 bunt gemischte Domains zum einen untersucht, auf wie viele unterschiedliche URLs der Domains externe (Deep)-Links zeigen. Und diese Zahl dann der Anzahl unterschiedlicher URLs mit mindestens einem Social-Signal (Facebook, Twitter, GooglePlus) gegenübergestellt:

    social-vs-links

    Das Ergebnis ist ziemlich eindeutig: mehr als 80% der untersuchten Domains haben mehr unterschiedliche URLs mit Links als mit Social-Signals. Wenn man im Hinterkopf behält, wie selten freiwillig gesetzte Deeplinks bei den meisten Projekt-Typen sind, dann zeichnet diese Auswertung kein gutes Bild für die Nutzbarkeit von Social-Signals in Suchmaschinenalgorithmen.

    Geht man etwas tiefer in die Daten, so zeigt sich natürlich ein differenzierteres Bild. So gibt es einige Bereiche, in denen Social-Signals funktionieren. Bild.de und weitere News-Seiten haben zum Beispiel mehr URLs mit Social-Signals als mit Links – die dort vorhandenen Inhalte bieten sich für ein Verbreiten über soziale Netzwerke einfach an. Auf der Gegenseite sind auffällig viele Online-Shop, Branchenbücher und Ecommerce-Seiten.

    The post Wie verbreitet sind Social-Signals? appeared first on SISTRIX.

    SISTRIX

  • Monthly Archives: Januar 2014

  • SEO-Stammtisch in Bonn am 30.01.2014

    Januar 8, 2014 7:17 pm - Posted by admin Category:SEO + SEM

    SEO-Stammtisch Bonn

    Bevor der Karneval und die SEO-Konferenzen das neue Jahr in Beschlag nehmen, gibt es am Donnerstag, den 30. Januar 2014 als Warm-Up den nächsten SEO-Stammtisch in Bonn. Bis dahin habt Ihr hoffentlich alle Eure guten Vorsätze für 2014 fallengelassen.

    Wie immer erwartet Euch ein lockerer Kreis von ca. 50 Leuten, die sich bei Speisen und Getränken unkompliziert kennenlernen, austauschen und vernetzen.

    Jeder, der sich für das Thema SEO interessiert, ist herzlich eingeladen und kann sich über dieses Formular kostenlos anmelden.

    Um für etwas Abwechslung zu sorgen, wird der Stammtisch mal wieder in einer anderen Location stattfinden. Wir informieren Euch nach der Anmeldung wie üblich ein paar Tage vor dem Termin über den Veranstaltungsort und schicken auch eine Teilnehmerliste rum.

    Anregungen und Wünsche könnt Ihr gerne unten in den Kommentaren hinterlassen.

    The post SEO-Stammtisch in Bonn am 30.01.2014 appeared first on SISTRIX.

    SISTRIX

  • Monthly Archives: Januar 2014

  • IndexWatch 2013: Verlierer

    1:15 am - Posted by admin Category:SEO + SEM

    Nachdem wir Euch letzte Woche die Gewinner 2013 im SISTRIX Sichtbarkeitsindex analysiert haben, werfen wir diese Woche nach der gleichen Systematik einen Blick auf die Verlierer. Auch für die Absteiger haben wir für mehr Daten ein Google Doc erstellt, in dem Ihr eine Aufstellung nach prozentualen Verlusten sowie ein Liste nach absoluten Verlusten findet.

    Verlierer 2013

    # Domain Veränderung Daten
    1 last.fm -80%
    2 dslweb.de -80%
    3 hausgarten.net -79%
    4 hotfrog.de -78%
    5 daskochrezept.de -78%
    6 dsl-magazin.de -78%
    7 internisten-im-netz.de -75%
    8 11880.com -74%
    9 testsieger.de -72%
    10 magistrix.de -72%
    11 kimeta.de -71%
    12 pornos-kostenlos.tv -71%
    13 cecu.de -70%
    14 yatego.com -70%
    15 wallpaper.to -70%
    16 peek-cloppenburg.de -70%
    17 songtexte.com -69%
    18 directindustry.de -69%
    19 news.de -68%
    20 teilehaber.de -67%
    21 myspace.com -66%
    22 billig-flieger-vergleich.de -66%
    23 cylex.de -65%
    24 preis.de -65%
    25 cosmoty.de -65%
    26 limango-outlet.de -65%
    27 geizhals.at -65%
    28 vebidoo.de -65%
    29 geburtstags-feste.de -65%
    30 netmoms.de -64%
    31 immobilo.de -64%
    32 gesundheitsfrage.net -64%
    33 preissuchmaschine.de -64%
    34 verwandt.de -64%
    35 staedte-info.net -64%
    36 heimwerker.de -64%
    37 billiger.de -63%
    38 nachrichten.de -63%
    39 guenstiger.de -63%
    40 sportnahrung-engel.de -63%
    41 fincaferien.de -63%
    42 medizinfo.de -63%
    43 staufenbiel.de -62%
    44 citysam.de -61%
    45 fotosearch.de -61%
    46 hinundweg.de -61%
    47 saferpage.de -60%
    48 anleiter.de -60%
    49 wer-weiss-was.de -60%
    50 prinz.de -60%
    mehr … (Top 100)

    Auch 2013 pflügte der Google-Zoo wie eine Büffelherde die SERPs um, so dass die Liste der Verlierer durch Panda– und Penguin-Opfer dominiert wird, deren Verluste sich oftmals in 2013 fortsetzten.

    Panda-Updates

    Exemplarisch für Verluste durch weitere Iterationen des Panda-Updates sei hier hotfrog.de (Grafik) genannt. Das Ziel von Google ist es dabei, Treffer mit minderwertigen Content aus den Suchergebnissen herauszufiltern. Anhand der Ereignis-Pins in der Toolbox sieht man eindeutig wie stark die Domain auf die verschiedenen Panda-Updates reagiert hat und im Zeitablauf die Sichtbarkeit der Domain schrittweise dahinschmilzt.

    Von der in den letzten Jahren ohnehin stark geschrumpften Sichtbarkeit verlor hotfrog.de (Platz 4) im Jahr 2013 weitere 78 Prozent. Gegenüber dem Höchstwert von 266 Punkten im Jahr 2009 hat die Domain inzwischen 99 Prozent der Sichtbarkeit bei Google verloren. Dieses Schicksal teilt sie mit vielen anderen Panda-Opfern wie z.B. heimwerker.de (Grafik), auch wenn die Verluste nicht immer ganz so dramatisch sind.

    An dieser Stelle sei noch einmal auf den von Google veröffentlichten Fragenkatalog hingewiesen, auf Grundlage dessen der Algorithmus für das Panda-Update entwickelt wurde.

    Penguin-Updates

    Typisches Beispiele für Verluste durch ein Penguin-Update finden wir mit dslweb.de (Grafik) auf Platz 2 und testsieger.de (Grafik) auf Platz 9 unserer Liste. Beide Domains wurden von dem Update getroffen, das Google offiziell Penguin 2.0 nennt. Zählt man die einzelnen Penguin Updates durch, handelt es sich um die #4. Mit den Penguin-Updates geht Google insbesondere gegen Spam in Form von unnatürlichem Linkaufbau vor.

    Wir haben 2013 ein kurzes Video veröffentlicht, woran man erkennen kann, ob eine Domain vom Penguin-Update betroffen ist. Ein typisches Beispiel für Link-Spam mit zu vielen unnatürlichen Money-Keyword-Links zeigt ein Blick auf die am häufigsten verwendeten Linktexte von billig-flieger-vergleich.de (Grafik) auf Platz 22 unserer Liste.

    In der Liste der Absteiger findet man auch Domains, die möglicherweise sowohl vom Panda als auch vom Penguin betroffen sind, wie z.B. hausgarten.net (Grafik) auf Platz 3. Während die Verluste durch das Panda-Update sehr deutlich sind, sind die Penguin-Verluste nicht ganz so eindeutig. Aber auch hier zeigt ein Blick auf die Linktexte eine beachtenswert hohe Wahrscheinlichkeit für einen Zusammenhang.

    Manuelle Penalties

    Neben den algorithmischen Panda- und Penguin-Filtern waren sicherlich bei einigen Domains auch manuelle Penalties für die Verluste verantwortlich. Diese lassen sich von außen nicht so leicht mit hoher Sicherheit erkennen. Inzwischen werden die Websitebetreiber darüber über die Google Webmaster Tools informiert, wenn sie ihre Domain dort angemeldet haben. Von außen hilft oftmals ein Blick auf die Rankingverteilung. Eine solche Verteilung wie in diesem Screenshot ohne Rankings auf den ersten drei Suchergebnisseiten ist ein Musterbeispiel für eine manuelle Penalty wegen unnatürlichem Linkaufbau.

    2013 – das Jahr in dem cylex.de von gelbeseiten.de überholt wurde

    Ist man ehrlich, muss man eingestehen, dass Google mit seinen Filtern und Penalties tatsächlich eine Menge Spam aus den Suchergebnissen entfernen konnte. Eine der ältesten und – auf die Sichtbarkeit bezogen – erfolgreichsten Spamseiten ist für mich seit Jahren cylex.de (Grafik). Ich ziehe meinen Hut davor, wie es die Domain seit Jahren geschafft hat mehr Sichtbarkeit aufzubauen als die meisten andern Online-Branchenbücher, obwohl es sich nicht um eine etablierte Marke handelt und man auf der Website dreimal hinschauen musste, um den Content von Anzeigen unterscheiden zu können. Cylex zeigte seine Qualitäten als Überlebenskünstler und irgendwie gelang es in der Vergangenheit trotz zwischenzeitlicher Einbrüche immer wieder sich den geänderten Rahmenbedingungen von Google erneut anzupassen.

    2013 brachte Google aber selbst cylex.de ins Wanken. Nach Prozenten belegt Cylex mit -65 Prozent zwar nur Platz 23 auf unserer Verlierer-Liste, in der Konsequenz bedeutet das aber ein Verlust von 150 Punkten und Platz 1 in der Auswertung nach absoluten Punkten. Zusammen mit der Googles stetig wachsender Liebe für Marken führte das dazu, dass 2013 erstmals cylex.de von gelbeseiten.de überholt wurde (Grafik). Für mich ist das ein historischer Moment und das Sinnbild für die Veränderungen in der SEO-Branche.

    Schleichender Tod und schlechte Nutzersignale

    Bei nicht wenigen Domains kann man eine stetig fallende Sichtbarkeit beobachten. Zum Teil in Kombination mit einem stärkeren Einbruch bei einem Google Update, zum Teil aber auch fließend. Als Beispiel kann man hier das bekannte Startup netmoms.de (Grafik) auf Platz 30 nennen, das 2013 64 Prozent Sichtbarkeit eingebüßt hat. Eine Analyse der Verzeichnisebene der Domain (Grafik) zeigt, dass das Verzeichnis /fragen/ am stärksten verloren hat und auf Verzeichnisebene dann auch ein Zusammenhang zum Panda-Update vermutet werden kann. In dem Verzeichnis befindet sich ein typische Frage-Antwort-Portal, mit sich überschneidenden Themen und Keywords. Man kann unterstellen, dass solche Treffer bei vielen Suchanfragen nicht die beste Antwort sind und Google dieses anhand der Nutzersignale inzwischen immer besser erkennen kann. Ähnliches trifft auf viele Foren zu.

    Die Früchte am Google-Baum hängen nicht mehr so tief wie früher

    Insgesamt muss man sagen, dass große Mengen und für Suchmaschinen aufbereitete Inhalte mit begrenztem Mehrwert, wie User-generated content (UGC), aus Datenbanken automatisch genierte Inhalte und Content-Farmen, in der Prä-Panda-Zeit, also der Zeit vor den Panda-Updates, sicherlich von Google stark überbewertet waren. Es wäre falsch auf ein Revival dieser Zeiten zu hoffen. Diese Methoden funktionieren nur noch im wenig umkämpften Longtail. Vielmehr gilt es Inhalte anzubieten, die auch unter Berücksichtigung der Nutzersignale wettbewerbsfähig und gut strukturiert sind. Vielen Verlierern wird es allerdings schwerfallen, sich das selbst offen und ehrlich einzugestehen, um dann einen neuen Weg einzuschlagen. Aber es hilft nichts, die Früchte am Google-Baum hängen nicht mehr so tief wie früher. Wer in umkämpften Bereichen von Google nicht zu der Gruppe der vertrauenswürdigen Qualitätsführer eines Segments zugeordnet wird, hat schlechte Karten. Das gleiche gilt für den Linkaufbau.

    Länderzuordnung

    Auf Platz 1 der Verlierer-Liste findet man nach prozentualen Verlusten last.fm (Grafik). Diese Verluste sind sicherlich vom Betreiber gewollt, da deutschsprachige Nutzer auf lastfm.de (Grafik) weitergeleitet werden. Insofern hätte man die Domain auch aus der Liste streichen können. Da das Thema Geotargeting jedoch wichtig ist, halte ich auch das Beispiel für wichtig. Bei last.fm werden Land und Sprache über das hreflang -Attribut ausgesteuert, was 2013 offenbar mit wachsendem Erfolg gelungen ist.

    Den umgekehrten (aber ebenso gewollten) Fall, die verschiedenen Länderinhalte auf einer Domain zu konzentrieren, finden wir beispielsweise bei samsung.de (Grafik) auf Platz 52. Die Hauptdomain leitet auf samsung.com weiter, allerdings sind Subdomains der DE-Domain noch aktiv (Grafik).

    Individuelle Fehler und Maßnahmen

    Neben den allgemeinen Trend gibt es in der Verlierer Liste natürlich auch einige individuelle Fälle. So wurden bei 11880.com (Grafik) auf Platz 8 der Liste beispielsweise die Inhalte des erfolgreichsten Verzeichnisses /personen/ (Grafik) im November 2013 offenbar auf NoIndex gesetzt. Über die Gründe kann man nur mutmaßen.

    Die Domain peek-cloppenburg.de (Grafik) hätte eigentlich wie viele andere Marken-Websites auf der Gewinner-Liste stehen können. Ein jähes Ende fand der 2012 sehr schön beginnende Aufwärtstrend jedoch im Frühjahr 2013 nach einem Relaunch, so dass die Domain sich jetzt auf der Verlierer-Liste befindet (Platz 16). Beim erstmaligen Besuch von peek-cloppenburg.de erhalten Nutzer ein Overlay, das einen zu einem Besuch des neu geschaffenen, aber bei Google nicht etablierten, Shops auf fashionid.de „zwingt“. Es ist praktisch unmöglich über die Startseite einen Inhalt von peek-cloppenburg.de zu erreichen. In Summe bedeutet das ein dickes Minusgeschäft (Grafik) in der Sichtbarkeit. Das hätte man unter Zuhilfenahme eines SEO-Experten deutlich eleganter und erfolgreicher lösen können.

    Domains am Scheideweg

    Werfen wir noch einen kurzen Blick auf die Liste der Verlierer nach absoluten Punkten, finden wir ein paar große Domains, die prozentual nicht ganz so stark verloren haben, in absoluten Punkten aber eine beunruhigende Entwicklung vorweisen. Spannend sind für mich dabei insbesondere die Domains, deren Sichtbarkeit sich zum Jahresende an die Grenze der langfristigen Trendlinie entwickelt hat wie z.B. ab-in-den-urlaub.de (Grafik) auf Platz 2, helpster.de (Grafik) auf Platz 7 und meinestadt.de (Grafik) auf Platz 12. Hier wird es in den nächsten Wochen und Monaten spannend zu beobachten sein, ob die langfristige Trendlinie wie in den vergangenen Jahren als Unterstützung hält, so das die Sichtbarkeitsentwicklung daran abprallt und wieder steigt. Werden die langfristigen Trends jedoch durch ein Fortschreiten der jüngsten Abwartsbewegungen durchbrochen, drohen 2014 stärkere Verluste.

    The post IndexWatch 2013: Verlierer appeared first on SISTRIX.

    SISTRIX

  • Monthly Archives: Januar 2014

  • Kann Spam eine legitime SEO-Taktik sein?

    Januar 5, 2014 7:24 pm - Posted by admin Category:SEO + SEM

    In den USA spielte sich über den Jahreswechsel eine der wohlbekannten Google-PR-Aktionen ab, wie wir sie seit dem BMW-Fall vor rund 8 Jahren in schöner Regelmäßigkeit beobachten dürfen. Das Drehbuch ist dabei immer gleich: eine halbwegs bekannte Marke schießt in der Optimierung über das Ziel und die Google-Richtlinien hinaus und wird dafür von Google öffentlichkeitswirksam getadelt. Nach einigen Tagen kriecht die Marke zu Kreuze, entschuldigt sich bei Google in aller Öffentlichkeit und ist kurz später wieder wie gewohnt in den Google-Ergebnissen zu finden. Für die bekannte Lyrics-Seite RapGenuis.com war es wohl aus vielen Gründen ungeschickt, Justin-Bieber-Links aufzubauen. Einer davon ist, dass Matt Cutts von der Sache Wind bekam und die Google Richtlinien durchsetze. Die Gründer der Seite haben danach in epischer Breite ihre Fehler dargelegt und eingestanden. Nur einen Tag später waren die alten Positionen wieder da. Und nicht nur das – durch die Öffentlichkeit gerade in den USA dürften die neu gewonnen Links die gelöschten Verlinkungen an Qualität und Quantität deutlich übertreffen. Eigentlich eine klassische Win-Win-Situation: Google konnte zu Jahresanfang nachdrücklich daran erinnern, dass Linkkauf ungerne gesehen wird und RapGenius.com dürfte noch nie so viele Links so günstig erhalten haben.

    Leider hat die Sache einen Haken. Betrifft so eine Penalty nicht gerade ein StartUp mit 15 Millionen-Finanzierung, entsprechenden Kontakten und weitreichendem Medienecho, dann legt Google einen anderen Maßstab an die Bewertung der Vergehen an. Reconsideration Requests werden verzögert oder gar nicht bearbeitet und von einer Aufhebung der Penalty nach gerade einmal einer Woche können die allermeisten Seiten nur träumen.

    Die naheliegende Frage ist nun: ab welcher Größe kann Spam eine legitime SEO-Taktik sein? Rückblickend wäre RapGenius.com falsch beraten gewesen, es nicht zu versuchen. Die positiven Effekte überwiegen alle negativen Auswirkungen deutlich. Als Verlierer der Aktion könnte am Ende Google darstellen: in den USA wird bereits die Rolle von Google durchleuchtet und Blogger stellen sich die Frage, ob der Marktanteil von Google eigentlich angemessen ist. Die alte Heimwerker-Regel „nach Fest kommt Ab“ könnte auch für Suchmaschinen gelten.

    The post Kann Spam eine legitime SEO-Taktik sein? appeared first on SISTRIX.

    SISTRIX

  • Monthly Archives: Januar 2014

  • IndexWatch 2013: Gewinner

    Januar 4, 2014 7:07 am - Posted by admin Category:SEO + SEM

    Manche Trends und Algorithmus-Veränderungen bei Google zeigen erst über einem längeren Betrachtungszeitraum ihr wahres Gesicht. Zum Jahresstart wollen wir Euch daher wieder eine Liste der größten Gewinner und Verlierer des vergangenen Jahres im SISTRIX Sichtbarkeitsindex liefern. Berücksichtigt wurden alle Domains, die im deutschen Index mit mindestens 3 Punkten im Sichtbarkeitsindex in das Jahr 2013 gestartet sind. Wie immer beginnen wir mit der Liste der 50 größten Gewinner (prozentual). Die Liste steht auch als Google Doc zur Verfügung. Das Dokunent enthält sogar die Top-100 und unter dem entsprechend bezeichneten Reiter zudem ein Arbeitsblatt mit einer Auswertung nach absoluten Werten.

    Gewinner 2013

    # Domain Veränderung Daten
    1 giga.de +1.170%
    2 wimdu.de +356%
    3 vdh.de +324%
    4 targobank.de +289%
    5 kartenmacherei.de +245%
    6 yelp.de +241%
    7 stadtbranchenbuch.com +235%
    8 aliexpress.com +231%
    9 reichelt.de +216%
    10 12gebrauchtwagen.de +188%
    11 foursquare.com +173%
    12 moviepilot.de +170%
    13 preisvergleich.de +168%
    14 rakuten.de +164%
    15 pc-magazin.de +161%
    16 abendzeitung-muenchen.de +159%
    17 ebay.com +157%
    18 fem.com +156%
    19 dawanda.com +155%
    20 indeed.com +152%
    21 asos.de +151%
    22 fupa.net +149%
    23 lexware.de +143%
    24 hannover.de +140%
    25 netdoktor.at +139%
    26 travelworks.de +136%
    27 lovelybooks.de +135%
    28 fcbayern.de +133%
    29 aponet.de +133%
    30 baby-und-familie.de +131%
    31 tausendkind.de +126%
    32 pinterest.com +126%
    33 lidl.de +124%
    34 cvedetails.com +122%
    35 dr-gumpert.de +121%
    36 ksta.de +120%
    37 weihnachtsgedichte-sprueche.net +120%
    38 impfen-info.de +119%
    39 karrierebibel.de +115%
    40 congstar.de +113%
    41 tintenalarm.de +113%
    42 heute.de +112%
    43 deingedicht.de +111%
    44 fremdwort.de +111%
    45 familie.de +110%
    46 real.de +110%
    47 vz-nrw.de +108%
    48 ardmediathek.de +107%
    49 weihnachtsgedichte24.de +107%
    50 e-hoi.de +106%
    mehr … (Liste Top 100)

    Insgesamt fiel bei der Auswertung auf, dass Google deutlich selektiver geworden ist, welchen Domains mehr Sichtbarkeit eingeräumt wird. Fand man in den letzen Jahren unter den Gewinnern immer einige reinrassige Spamprojekte, so hatten die Gewinner 2013 im Schnitt qualitativ deutlich mehr Substanz. Offenbar setzt Google stärker auf langfristiges Vertrauen und Nutzersignale. Wir haben uns daher auch erstmals entschlossen, keine Domains, z.B. aufgrund von Domainumzügen oder kurzfristigen Penalties, aus der Liste zu streichen. Über den Zeitraum von einem Jahr sorgt Google inzwischen selbst für ein großes Maß an qualitativer Hygiene.

    Die Domain giga.de konnte ihre Sichtbarkeit nicht um den passenden „Einheitenfaktor Milliarde“ steigern, aber führt nach prozentualen Gewinnen die Liste der Gewinner deutlich an. Abgesehen davon, dass dort aus SEO-Sicht vieles richtig gemacht wird, dürfte insbesondere die Integration von winload.de für den Anstieg verantwortlich sein. Wir haben die Fallstudie ausführlich im Oktober in diesem Artikel beschrieben.

    Viel Bewegung gab wieder einmal im Bereich der lokalen Suche und der Branchenbücher. Yelp.de konnte seine Sichtbarkeit durch die Übernahme von Qype deutlich steigern, in Summe verlieren die beiden Plattformen jedoch. Das Bewertungssystem von foursquare.com ist nach Ansicht vieler Nutzer am wenigsten anfällig für Bewertungsspam. Außerhalb der Großstädte ist die Datenbasis aber noch dünn. Unter dem Strich setzt Foursqare aber seinen Erfolgskurs fort und steigert seine Sichtbarkeit um 173 Prozent. Die Kollegen von stadtbranchenbuch.com wurden Ende 2012 hart vom Panda-Update #22 getroffen. Die typische Anti-Panda-Taktik mit einer kleinteiligen Stückelung und Verlegung der Inhalte auf Sub-Domains hat seit Februar bis Ende 2013 den gewünschten Erfolg gebracht.

    Im vergangenen Juli hat Google neue Signale gefunden, um das Panda-Update feiner auszusteuern. Mit dem Panda Update #26 wurden eine ganze Reihe Domains „begnadigt“ und aus den Krallen des Pandas entlassen. Einige Domains konnten diese neu erweckte Zuwendung seitens Google bis zum Jahresende weiter ausbauen und schafften es somit in die Liste der Gewinner 2013. Dazu zählen beispielsweise deingedicht.de, familie.de und dr-gumpert.de.

    Insgesamt findet man viele starke Marken unter den Gewinner-Domains. Noch deutlicher zeigt sich dieser Trend, wenn man die Auswertung auf die 100 größten Gewinner ausweitet. Dabei zeigen die Sichtbarkeitsverläufe vieler Domains einen auffällig ähnlichen Verlauf. Als Beispiel wurden in dieser Grafik die Verläufe von lidl.de (Platz 33), obi.de (53), saturn.de (54) und hornbach.de (67) verglichen. Alle diese Domains zeigen nach einem jahrelangen Seitwärtstrend seit etwa Ende Mai 2012 einen starken Aufwärtstrend, der sich 2013 kontinuierlich fortsetzte. Für alle diese Domains wird bei einer Suche nach der Marke eine Answer-Box über den Google Knowledge Graph angezeigt. Und wir erinnern uns, dass Google den Knowledge Graph im Mai 2012 eingeführt hat (Englisch, Deutsch).

    Entweder haben viele Markenanbieter nach langem Schlaf gleichzeitig SEO für sich entdeckt und erfolgreich umgesetzt oder der Google Algorithmus kuschelt im Hintergrund immer mehr mit starken Marken. Abwegig ist dieser Gedanke nicht, schließlich erwarten die Google-Nutzer bei verwandten Suchbegriffen auch die Angebote dieser Marken – unabhängig davon, wie es um das SEO-Know-how der Anbieter bestellt ist. Sollte es so sein, dann wirkt der Effekt bei “unterbewerteten Domains” langsam aber sehr stetig und ist erst im Zeitablauf erkennbar. Die Frage „Entdeckt Google noch stärker die Marken oder entdecken die Marken Google?“ wird in den nächsten Wochen zu diskutieren sein. Dabei sollte man das bekannte Zitat von Eric Schmidt im Hinterkopf behalten:

    “Brands are the solution, not the problem… Brands are how you sort out the cesspool.”

    Auch die Informationen über die Datenquellen für den Google Knowledge Graph bieten interessante Informationen, wie Google über stark nachgefragte Marken denkt:

    “Google search data (used to measure the popularity of a subject and help decide what information people most want to see)”

    Bei anderen Marken wie beispielsweise targobank.de (4), reichelt.de (9), lexware.de (23) real.de (46), esprit.de (71), toysrus.de (78) und oetker.de (83) setzen die starken Aufwärtstrends zum Teil später ein. So bleibt Raum für Spekulationen und es wird sich nicht vermeiden lassen, die Einzelfälle tiefergehend zu analysieren, zu differenzieren und dabei besondere Ereignisse wie einen Relaunch und aktiv durchgeführte SEO-Maßnahmen zu berücksichtigen.

    Schaut man sich die interessanten Rankings von aliexpress.com, so scheint sich die Plattform in Deutschland insbesondere zu einem beliebten Einkaufsort für ausgefallene und bizarre Einkaufswünsche aus Fernost entwickelt zu haben.

    Unerwähnt sollen auch nicht relativ junge Websites wie wimdu.de (2), kartenmacherei.de (5) und 12gebrauchtwagen.de (10) bleiben. Sie haben ihren Erfolgskurs deutlich und weitestgehend stabil fortgesetzt. Inzwischen haben sie Größenordnungen erreicht, um als willkommene Alternativen für bekannte SEO-Fallstudien wie z.B. zalando.de herangezogen werden zu können. Ein tieferer Einblick in die eingesetzten SEO-Techniken ist sicherlich mehr als nur einen Blick wert.

    In den nächsten Tagen widmen wir uns dann den Verlierern 2013. Bis dahin wünsche ich Euch ein schönes Wochenende!

    The post IndexWatch 2013: Gewinner appeared first on SISTRIX.

    SISTRIX