• E-commerce Solution

    Umsatz machen… … 24 Stunden am Tag, 365 Tage im Jahr. Die Anzahl der sogenannten Webshops oder eShops auf dem Marktplatz Internet steigt täglich an.

    Read More
  • Link Building

    Während bei der Onpage- oder Onsite-Optimierung einer Webseite vornehmlich die Struktur und der Inhalt optimiert werden, fokussiert man beim Linkaufbau in erster Linie das Umfeld der betreffenden Webseite. Beim Linkaufbau versucht man die Anzahl der auf die eigene Webseite verweisenden …

    Read More
  • Content Management

    Open Source Software aus Überzeugung Ein Tätigkeitsschwerpunkt von hauptsache.net ist die Entwicklung von Lösungen unter Verwendung von Open Source Software.

    Read More
  • Web Development

    Comming soon!

    Read More
  • SEO Consulting

    Wie „denken“ Suchmaschinen? Suchmaschinen arbeiten auf unterschiedliche Art und Weise. 

    Read More

    Monthly Archives: Oktober 2013

  • 6 Punkte, die ein SEO vom erfolgreichen Relaunch von giga.de lernen kann

    Oktober 31, 2013 1:23 am - Posted by admin Category:SEO + SEM

    Es gibt unzählige Beispiele für einen aus SEO-Sicht schlecht durchgeführten Relaunch, bei dem die betroffene Website einen große Teil der Rankings verliert. Um so schöner ist es, dass es mit giga.de ein Beispiel für einen bislang sehr erfolgreichen Relaunch gibt. Die Website des ehemaligen TV-Senders GIGA wurde im März 2011 von der Econa Internet AG übernommen. Econa hat sich darauf spezialisiert bereits profitable mittelgroße Websites mit gutem Conent aufzukaufen und weiterzuentwickeln.

    Entwicklung Sichtbarkeitsindex giga.de

    Entwicklung Sichtbarkeitsindex giga.de

    Zuletzt führte giga.de Anfang April 2013 (Ereignis-Pin C) einen Relaunch durch. Der Sichtbarkeitsindex ist seit diesem Zeitpunkt von 6,8 Punkte auf über 45 Punkte gestiegen und hat sich damit mehr als versechsfacht. Insbesondere für Betreiber von Newsportalen und Blogs ist giga.de damit ein sehr interessantes Best-Practice-Beispiel, bei dem man sich einige SEO-Techniken abschauen kann.

    In den letzten Jahren haben insbesondere drei Ereignisse die Entwicklung der Sichtbarkeit von giga.de stark beeinflusst.

    A) Integration von macnews.de (Ereignis-Pin A)


    Nach der Übernahme durch Econa konnte giga.de den langfristigen Abwärtstrend im Sichtbarkeitsindex durchbrechen und in einen Aufwärtstrend umwandeln. Eine richtigen Sprung nach oben gab es in der Woche vom 24.11.2011 (Ereignis-Pin A).

    Übernahme macnews.de

    Übernahme macnews.de

    Zu diesem Zeitpunkt hatte Econa die im gleichen Jahr erworbene Plattform macnews.de auf giga.de überführt. Ebenfalls wurden 2011 die kleineren Portale macmagazin.de und maccommunity.de übernommen. Die Sichtbarkeit von macnews.de konnte weitestgehend auf giga.de übertragen werden. Mit dieser Aktion schaffte es giga.de in die Liste der SISTRIX IndexWatch Gewinner 2011 und wir haben darauf hingewiesen, dass solche Mergers & Acquisitions in Zukunft ein interessantes Wachstumsmodell im SEO-Bereich sind, um schnell mehr Links und mehr Content zu realisieren.

    B) Relaunch giga.de Januar 2012 (Ereignis-Pin B)

    
Es ist noch kein Meister vom Himmel gefallen und mit dem Relaunch von giga.de im Januar 2012 mußte auch Econa erst einmal Lehrgeld bezahlen. Während technisch offenbar alles richtig gemacht wurde und ausreichend 301-Weiterleitungen gesetzt wurden, zeigt eine Lektüre der über 200 Kommentare zur Neugestaltung der Website deutlich, dass viele Leser sehr unzufrieden mit dem neuen Design waren. Sie empfanden die neue Website unübersichtlich und hatten teilweise Probleme Werbung und redaktionelle Inhalte zu unterscheiden. Man kann davon ausgehen, dass sich diese Unzufriedenheit auch in schlechter werdenden Nutzersignalen äußerte, die von Google gemessen werden können (z.B. CTR in den SERPs, Return-to-SERP-Rate usw.).

 Entsprechend bildete sich ab dem 16.01.2012 ein deutlicher Abwärtskanal im Sichtbarkeitsindex.

    Abwärtskanal giga.de

    Nach dem Relaunch 2012 bewegte sich der Sichtbarkeitsindex von giga.de in einem deutlichen Abwärtskanal zwischen der oberen Trendlinie und der unteren Kanallinie.

    Der Zugewinn durch die Integration von macnews.de war schnell aufgebraucht und der Sichtbarkeitsindex fiel auf Werte aus der Zeit vor der Übernahme durch Econa. Dieser „langsame Tod“ ist häufig bei Websites zu beobachten, bei denen die Nutzersignale (z.B. durch zu starke Integration von Werbung, schlechte Usability, oder Content mit geringem Mehrwert) nicht mehr wettbewerbsfähig sind. Typisch für so eine Entwicklung sind auch stärkere Reaktionen der Sichtbarkeitskurve auf Panda-Updates von Google an die Grenzen des Trendkanals.

    C) Relaunch giga.de April 2013 (Ereignis-Pin C)

    Econa hat aus seinen Fehlern gelernt und bei einem erneuten Relaunch von giga.de im April 2013 (Ereignis-Pin C) sehr viele Dinge richtig gemacht. Die Sichtbarkeit bei Google befindet sich seither in einem steilen Aufwärtskanal.

    Aufwärtskanal giga.de

    Mit dem Relaunch 2013 hat giga.de die obere Begrenzung des Abwärtskanals durchbrochen. Der Sichtbarkeitsindex bewegt sich seit diesem Zeitpunkt in einem steilen Aufwärtskanal.

    Einen interessanten Einblick liefert das Interview mit dem Leiter der Apple-Redaktion Sven Kaulfuss:

    „Wir haben unsere Leser erhört. Sie waren mit dem Relaunch 2012 nicht zufrieden und haben das deutlich zum Ausdruck gebracht – entweder in den Kommentaren oder indem sie der Website ganz fern geblieben sind. Diese Kritik haben wir uns zu Herzen genommen und deshalb in den letzten Monaten an einem weiteren Relaunch gearbeitet.“

    Der Relaunch hat aber nicht nur die Leser erhört, sondern auch dem Googlebot das Leben einfacher gemacht. Auf giga.de kommen viele zeitgemäße SEO-Techniken zum Einsatz, von denen ich fünf ausgesuchte Punkte gerne beleuchten möchte.

    1) Den Nutzer in den Mittelpunkt stellen

    Das Zitat von Sven Kaulfuss beschreibt bereit einer der wichtigsten SEO-Maßnahmen von giga.de, die Ausrichtung der Website auf die Bedürfnisse der Nutzer. In den letzten Jahren ist Google immer besser darin geworden Qualitätsfilter zu entwickeln, die Treffer mit schlechten Nutzersignalen aus den vorderen Suchergebnissen ausfiltern. Die Panda-Updates sind sicherlich die bekanntesten dieser Filter, aber auch die Google Page Layout Algorithm Updates un weitere unkommunizierte Verbesserungen der Google-Algorithmen und Filter kann man hinzuzählen.

    Langfristig halten sich Treffer trotz bester Optimierung nicht in den Top-10, wenn die von Google gemessenen Qualitäts- und Nutzersignale gegenüber den anderen Treffern nicht wettbewerbsfähige Kennzahlen abliefern. Schließlich möchte Google seine Nutzer besmöglich zufriedenstellen, um die führende Suchmaschine zu bleiben.

    Die klassischen Rankingfaktoren sind anfällig für SEO-Manipulationen. Zusätzliche Qualitätsfilter sind die logische Konsequenz. Den Bedürfnisse des Nutzers zu erkennen und eine zufriedenstellende Antwort zu liefern hat das SEO-Betätigungsfeld erweitert und wird endlich auch von Google belohnt.

    2) Strukturierung der Inhalte mit Themenseiten


    Gerade im Newsbereich und bei Blogs besteht immer das Problem, dass man eine Vielzahl von Artikeln bzw. URLs zu einem bestimmten Keyword besitzt, die sich inhaltlich überschneiden und gegenseitig ergänzen. Weder der Websitebetreiber noch Google könnten eine vernünftige Antwort geben, welcher dieser Seiten für das Keyword am besten oben stehen sollte. Jeder Artikel beleuchtet das Thema mit seinen eigenen Detailinformationen und hat seine Berechtigung.

    Die Lösung sind hier Themenseiten, welche diese Artikel in einer Übersicht bündeln. Auf diese Weise läßt sich eine unstrukturierte Ansammlung von News und Beiträge in eine strukturierte Form bringen, die beständigere Rankings ermöglicht und von Google besser verstanden wird. In dem Beitrag „Themenseiten“ haben wir den Erfolg dieser SEO-Technik näher beleuchtet. 



    Bei giga.de wurden die Inhalte nach Kategorien wie z.B. Downloads, Software, Spiele und Unternehmen strukturiert und für jedes Keyword in das passende Verzeichnis eine entsprechende Themenseite erstellt. Eine Analyse der Sichtbarkeitsentwicklung der einzelnen Verzeichnisse von giga.de zeigt den Erfolg dieser Maßnahme seit dem Relaunch 2013.

    Entwicklung Sichtbarkeitsindex einzelner Verzeichnisse von giga.de

    Entwicklung Sichtbarkeitsindex einzelner Verzeichnisse von giga.de

    

Auch die Umsetzung der Themenseiten ist bei giga.de überdurchschnittlich gut gelungen. Sie stellen oft nicht nur einer interne Suchergebnisseite dar, was Google als unerwünschte „SERPs-in-SERPs“ (Suchergebnis-Seiten als Treffer in den Suchergebnissen von Google) werten könnte. Vielmehr bieten sie oft eine echte Übersicht zum Thema mit Mehrwert für den Nutzer. So findet man z.B. auf der Seite zum iPhone 5s eine sehr ausführliche Beschreibung des Produktes, Fakten zum Produkt, Links zu den meistdiskutierten Artikeln, Tests, Tipps, ähnlichen Produkten usw.

    Diese Seiten heben sich angenehm von den vollautomatisierten Themenseiten anderer Websites ab. Man merkt, dass man sich hier ein paar Gedanken über die Inhalte gemacht hat, was die Nutzer interessieren könnte, um sie tiefer in die Website zu ziehen und weitere Klicks zu erzeugen. Offensichtlich war man auch bereit darin etwas Arbeit zu investieren. Für den Suchbegriff “iPhone 5s” steht giga.de mit seiner Themenseite übrigens derzeit auf einem guten Platz 5 bei Google (Rankingentwicklung anzeigen).

    3) Intensive interne Verlinkung


    Die Themenseiten müssen mit Links versorgt werden. Während man bei externen Keyword-Links schnell in einen Google-Filter geraten kann, hilft man mit internen Keyword-Links Google die Inhalte der Website besser zu verstehen. Davon macht giga.de ausreichend Gebraucht. Konsequent wird aus dem Content heraus jedes Keyword auf die passende Themenseite verlinkt, wenn es erstmalig auf einer Seite im Text erscheint. Häufig sind die Keywords auch schon im Anreißer eines Artikels verlinkt, so dass die Links bereits auf den Übersichtsseiten wirken.

 Der folgende Screenshot zeigt als Beispiel drei interne Keywordlinks am Angang des heutigen Artikels über Google+ Custom URLs.

    Interne Verlinkung giga.de

    Diese Technik erinnert insgesamt ein wenig an die interne Verlinkung bei Wikipedia und der SEO-Erfolg des Lexikons sollte jedem bekannt sein. Auch wenn Wikipedia diese Form der internen Verlinkung wahrscheinlich nicht aus SEO-Gründen umgesetzt hat, sondern weil sie ebenfalls für die Nutzer sehr praktisch ist und gerne angenommen wird. Diese sehr mächtige SEO-Technik haben wir in dem Beitrag „Interne Verlinkung optimieren“ für eine tiefere Auseinandersetzung mit dem Thema ausführlich behandelt.


    4) HTML-Sitemap



    Screenshot HTML-Sitemap mit beliebten Themen bei giga.de

    Screenshot HTML-Sitemap mit beliebten Themen bei giga.de

    Neben der unter Punkt 3) beschriebenen internen Verlinkung macht es eine Art HTML-Sitemap dem Googlebot sehr einfach, wirklich alle gewünschten Seiten schnell zu finden, deren Bedeutung und Inhalt anhand des verwendeten Linktextes zu verstehen und Linkjuice zu verteilen.



    Im Header und Footer wird sehr intensiv auf beliebte Themen verlinkt und die Keywordlisten zu den einzelnen Themenseiten sind über eine A-Z-Liste mit Hunderten von Seiten leicht crawlbar.

    Darüber hinaus gibt es weitere Übersichts- und Verteilerseiten, welche die Inhalte über verschiedene Kategorisierungen schnell zugänglich machen. Auf diese Weise kann sichergestellt werden, das auch wirklich alle gewünschten Seiten gezielt indexiert und mit einem Mindestmaß an PageRank versorgt werden.

    Im Vergleich zu XML-Sitemaps bieten HTML-Sitemaps den großen Vorteil, dass sie (interne) Backlinks und damit Rankingsignale erzeugen. Die Seiten sollen schließlich nicht nur indexiert werden, sondern auch gute Positionen bei Google erreichen.

    SISTRIX Optimizer giga.de

    SISTRIX Optimizer giga.de

    Für diesen Blogpost haben wir gestern im SISTRIX Optimizer für giga.de ein neues Projekt angelegt und bis heute hat er dort 47.432 Seiten gecrawlt.

    Die Analyse bestätigt die Vermutung, dass die “Durchblutung” durch interne Links bei giga.de sehr gut ist. So zeigt z.B. die Analyse der Klick-Ebenen, dass über 14.000 Seiten mit maximal 2 Klicks von der Startseite aus erreichbar sind. Das ist ein sehr guter Wert.

    Die Analyse der internen Linktexte ergibt, dass auf den untersuchten Seiten beispielsweise 17.567 Links den Anchor-Text “iPhone 5s” verwenden. Eine dermaßen intensive Verlinkung wie in den Punktn 3) und 4) beschrieben liefert Google natürlich wesentlich stärkere Signale als nur 1–2 Links von einer übergeordneten Seite, wie man es bei vielen anderen Websites häufig beobachtet.

    Die folgende Tabelle zeigt einige Beispiele der am häufigsten verwendeten internen Linktexte bei giga.de mit der Anzahl gefundener Links.

    Interne Linktexte giga.de

    SISTRIX Optimizer: Beispiele Analyse der am häufigsten verwendeten internen Linktexte bei giga.de


    5) Keyword-Recherche

    Es werden nicht nur die sicherlich schwierigen Hauptkeywords wie z.B. „Google Chrome“ angegangen. Zu vielen Keywords gibt es Themenseiten, die z.B. noch einmal unterteilt werden in Tests, News, Artikel und Tipps und auf Detailseiten verlinken, die dann im Longtail ganz unterschiedliche Keywordkombinationen und verwandte Suchanfragen bedienen. Man merkt, dass hier viel Arbeit in die Keyword-Recherche geflossen ist.

    6) Gezielte Indexierung

    Ein Gärtner beschneidet Pflanzen, damit die ganze Energie in ausgesuchten Triebe fließt und diese besonders gut gedeihen, um so den Ertrag der Pflanze zu maximieren. Weniger ist hier oft mehr. Ähnlich sollte man bei den indexierten Seiten vorgehen und die Website regelmäßig auf das richtige Maß stutzen. Die Rankings der verbleibenden indexierten Seiten werden es einem danken. Man vermeidet damit nicht nur internen Duplicate Content, sondern kann auch verhindern, dass Inhalte mit weniger wertvollen Inhalten die Gesamtbewertung der Domain mit unterdurchschnittlich guten Signalen herunterziehen.

    Seit dem Relaunch im April 2013 hat giga.de die Anzahl indexierter Seiten von rund 3 Mio. auf unter 1 Mio. heruntergefahren. Ein zwischenzeitlicher Anstieg der Anzahl indexierter Seiten im Zeitraum Juli bis August 2013 brachte den steilen Aufwärtstrend prompt ins Stottern. Erst als die Anzahl Seiten wieder unter 1 Mio. gesunken war, setzte der Aufwärtstrend wieder ein.

    Anzahl indexierter Seiten giga.de

    Anzahl indexierter Seiten giga.de im Zeitablauf

    Die Kontrolle der indexierten Seiten gehört bei vielen Websites zu einem der am stärksten vernachlässigten Faktoren. Auch wenn die Werte nur eine grobe Schätzung von Google sind, sollte man sie ganz genau im Auge behalten und ungewöhnlichen Entwicklungen auf den Grund gehen. Weniger wertvolle Inhalte sollten durch NoIndex-Attribute gezielt deindexiert werden, um das Crawling- und Indexierungs-Budget seitens Google optimal einzusetzen und keine negativen Signale zu senden.

    Bei giga.de hat man offenbar ein Auge darauf. So werden z.B. Verteilseiten wie diese, diese, oder diese richtigerweise von der Indexierung ausgeschlossen.

    Fazit

    Die erfolgreiche Entwicklung von giga.de zeigt sehr deutlich wie wertvoll gute Inhalte erst in Verbindung mit einer durchdachten Informationsarchitektur und einer nutzerfreundlichen Gestaltung der Website werden. In seiner täglichen SEO-Arbeit sollte man sich nicht zu sehr davon ablenken jeder kleine Husten von Matt Cuts stundenlang zu interpretieren und jedem der über 200 Rankingfaktoren die gleiche Aufmerksamkeit zu schenken.

    Wesentlich fruchtbarer ist es viel Zeit mit der ordentlichen Pflege der Basics, einer durchdachten Informationsarchitektur und der Befriedigung der Nutzerbedürfnisse zu verbringen. Die Entwicklung von giga.de seit dem Relaunch im April 2013 veranschaulicht sehr beeindruckend, was für große Potentiale in vielen Websites schlummern, wenn man die richtigen und großen Hebel bedient.

    [Update 30.10.2013 14.40 Uhr]
    Ich habe gerade bei Skype die Info bekommen, auch winload.de zu Econa gehört und Mitte 2013 mit giga.de fusioniert wurde (siehe auch Wikipedia). Diese Übernahme ist natürlich ein wichtiger Faktor für den Aufwärtstrend nach dem Relaunch, der hier nicht unerwähnt bleiben soll. Die Domain winload.de hat im Zuge mehrerer Panda-Updates in den vergangenen Jahren viel Sichtbarkeit verloren. Es bleibt abzuwarten, ob diese Panda-Filter in Zukunft, wenn Google genug Daten gesammelt hat, auch bei den übertragenen Inhalten auf giga.de aktiv werden.

    Integration winload.de

    Integration winload.de

    The post 6 Punkte, die ein SEO vom erfolgreichen Relaunch von giga.de lernen kann appeared first on SISTRIX.

    SISTRIX

  • Monthly Archives: Oktober 2013

  • 5 Jahre SISTRIX Toolbox

    Oktober 22, 2013 7:33 pm - Posted by admin Category:SEO + SEM

    Vor fünf Jahren habe ich die SISTRIX Toolbox veröffentlicht. Nach fast einem Jahr Vorbereitung mit vielen Ideen, Konzepten, Designs und noch mehr Codezeilen, Datenbanken und Frontends ging die erste Version der Toolbox online. Seitdem hat die Toolbox die Herangehenweise an SEO-Analysen geprägt: alle wichtigen SEO-Kennzahlen sind mit nur einem Klick für jede beliebige Domain aufrufbar. Die komplette SEO-Historie steht für über 100 Millionen Domains zur Verfügung, mehr als 100 Milliarden Links sind in Sekunden durchsuchbar. Die Toolbox ist das meistgenutzte Werkzeug der SEO-Profis – eine Entwicklung, auf die ich stolz bin.

    Das letzte Jahr haben wir genutzt um die Toolbox von Grund auf zu überdenken. Unsere Erfahrungen und euer Feedback der letzten Jahre waren die Grundlage für eine vollkommen neue Version der SISTRIX Toolbox. Hard- und Software sind heute zu Leistungen fähig, die vor fünf Jahren undenkbar waren. So können in der neuen Toolbox jetzt Domains, Hostnamen, Verzeichnisse und einzelne URLs gleichberechtigt analyisert werden. Du willst autobild.de mit www.spiegel.de/auto/ vergleichen? – Kein Problem, wir bereiten alle Daten genau so auf, wie Du sie für Deinen Vergleich brauchst. Die Funktionen der Toolbox passen sich Deinen Bedürfnissen an und lassen sich mit Filtern und Einstellungen noch weiter personalisieren.

    Sichtbarkeitsindex: Domains, Hostnamen, Verzeichnisse und URLs

    Sichtbarkeitsindex: Domains, Hostnamen, Verzeichnisse und URLs

    Schnell wurde uns bei der Entwicklung klar, dass diese Menge an Daten und Analysen einer anderen Darstellung bedürfen. Während wir bislang nur eine maximale Breite von rund 1000 Pixeln verwendet haben, nutzt die neue Toolbox jetzt Deinen kompletten Bildschirm aus. Gerade bei umfangreichen Auswertungen hast Du alle wichtigen Daten damit direkt im Blick. Umgekehrt funktioniert die Anzeige allerdings auch noch auf einem Tablet oder sogar auf Deinem Smartphone. Gleichzeitig haben wir an der Geschwindigkeit gearbeitet – derzeit sind mehr als 97% aller Daten in weniger als 0,3 Sekunden auf Deinem Bildschirm und wir arbeiten daran, auch noch die letzten drei Prozent zu beschleunigen.

    Auf Basis der neuen Software können wir nun häufig gehörte Nutzerwünsche besser umsetzen: die neuen Reports können alle Elemente enthalten, die es in der Toolbox gibt. Ihr Design ist vollständig anpassbar und sie können als Whitelabel-Version versendet werden. Listen und Dashboards runden den Workflow in der Toolbox ab. Mit der neuen Google Analytics-Integration kannst Du wichtige Kennzahlen direkt in der Toolbox vergleichen und mit Deinen persönlichen Gewinner und Verlierer-Listen hast Du Dein SEO-Umfeld immer im Blick.

    Ab heute ist die neue Version der Toolbox für alle Nutzer freigeschaltet: einfach mit den bekannten Zugangsdaten auf next.sistrix.de anmelden und loslegen. Uns ist bewusst, dass auch die bisherige Version der Toolbox ihre Stärken hat – deswegen wird sie online bleiben, bis jeder mit der neuen Toolbox glücklich ist. Derzeit arbeiten wir mit Hochdruck daran, den Optimizer in das neue System zu überführen. Wir haben bereits zahlreiche Ideen für Verbesserungen. Um die Wartezeit etwas zu verkürzen, ist ab sofort bei allen Optimizer-Projekten die Analyse-Option kostenlos enthalten, mit der man zum Beispiel Klick-Ebenen, Status-Codes und Linktexte im Detail auswerten kann.

    The post 5 Jahre SISTRIX Toolbox appeared first on SISTRIX.

    SISTRIX

  • Monthly Archives: Oktober 2013

  • SEO Day 2013

    Oktober 18, 2013 7:18 am - Posted by admin Category:SEO + SEM

    Auch in diesem Herbst stand ein fest geplanter Termin in unserem Kalender: Der SEODAY in Köln – wieder im Rhein-Energiestadion des pausierenden Erstligisten 1. FC Köln. Fabian Rossbacher und sein Team präsentierten uns in 3 Bereichen insgesamt 25 Speaker.

    Durch die parallelen Panels gilt es sich bereits im Vorfeld mit den Speakern und den Themen auseinander zu setzen um für sich den größtmöglichen Input mitzunehmen. Nicht zuletzt war es aber auch der Austausch vor Ort, zwischen und nach den Vorträgen, was den Besuch des SEODAY lohnenswert gemacht hat.

    Wir möchten Euch hier einen kurzen Einblick in einige der Vorträge geben. Mit Sicherheit wird der ein oder andere Referent seine Präsentation in den kommenden Tagen online stellen und jeder kann sich bei Bedarf in das Thema vertiefen.

    Wir bedanken uns für die netten Gespräche, sagen Danke an Fabian und sein Team sowie an alle Speaker und freuen uns auf nächstes Jahr.

    Seoday Portrait Fabian Rossbacher

    Fabian Rossbacher

    Table of content:

    Karl Kratz: All you can track (and even more)

    Seoday Portrait Anne Karl Kratz

    Anne und Karl Kratz

    Karl Kratz zeigt anhand von Zahlen eines eigenen Projekts, wie sich Additive Tracking-Methoden zusammenfügen und durch Echtzeit-Content-Dynamisierung eine Konversions-Optimierung der Nicht-Konversionen zu einem 50%tigen Uplift führte.

    Durch die Erhebung zusätzlicher Tracking-Informationen eines jeden Users lassen sich dessen Intentionen und Anreize in einem Verkaufsprozess abbilden und für eine spätere Individualisierung der Angebotsinformationen bei einem wiederkehrenden Besuch nutzen.

    Eine Konversions-Optimierung der Nicht-Konversionen kann sehr erfolgversprechend sein. Voraussetzung hierfür ist, auf die Bedürfnisse des Users einzugehen und ihm bei seiner Kaufentscheidung zu begleiten bzw. ihm solange Kaufanreize zu unterbreiten, bis er schließlich konvertiert. Das Angebot muss dem Bedarf des Interessenten gerecht werden.

    Wiederkehrende User sind wie eine kleine Liebeserklärung– Karl Kratz

    Um in einem Verkaufsprozess auf die Bedürfnisse des wiederkehrenden Interessenten besser eingehen zu können, müssen die Gründe für seine bisherige Nicht-Konversion erhoben werden. Dazu kann sein Verhalten auf der Angebotsseite analysiert werden.

    • worauf wird geklickt und worauf nicht?
    • wird überhaupt geklickt oder nur gelesen?
    • welche Bereiche einer Seite werden angeschaut und welche nicht?
    • wie lange werden die einzelnen Bereiche angeschaut?
    • etc.

    Anhand der erhobenen Informationen können die Inhalte einer Angebotsseite für den wiederkehrenden Interessenten zugeschnitten werden, um eine größtmögliche Stimulanz zu erzeugen. Denn bei hochquallifiziertem Traffic ist nicht die Frage ob er konvertiert, sondern wann.

    Durch Content-Dynamisierung in Echtzeit wird auf die Bedürfnisse des Interessenten eingegangen und ihm solange die für ihn nötigen Kaufanreize in einer Angebotskette unterbreitet, bis er sich zu einem Kauf entschließt.

    Dominik Wojcik: Bericht über ein eigenes Projekt

    Seoday Portrait Dominik Woijczek

    Dominik Woijczek

    1 Millionen Seiten in den Index von Google bringen und das mit einer neuen Domain. Geht nicht? Das dachten auch viele Andere, aber Dominik hatte es geschafft und berichtet über sein (graues) Projekt und nennt dabei die von ihm angewendeten Strategien zur Umsetzung sowie Zahlen zu den täglichen Google AdSense Einnahmen.

    SEOs brauchen Spielwiesen. Dominik hat sich zwei Tage Zeit genommen, um mit einer neuen Domain möglichst viele Seiten von Google indexieren zu lassen. Ziel war es, 1 Millionen Seiten in den Index zu bekommen. Nach vier bis fünf Monaten war das Ziel erreicht.

    Wie hat er das angestellt? Dominik bediente sich bei seinem Setup aus einer Datenbank mit ca. 14 Millionen expired Domains. Zudem nutzte er kein Standard CMS, sondern entwickelte ein eigenes, da keine der kostenfreien Lösungen seinem Bedarf gerecht wurde.

    Die erste Frage die es zu beantworten galt: Welche URL-Struktur nutzt man, um möglichst viele Seiten intern vernünftig untereinander zu verknüpfen? Dominik entschied sich dazu, Sub-Sub-Domains einzusetzten und verlinkte die Seiten über die Paginierung.

    Der Aufbau und die Umsetzung des Projekts:

    Es wurde ein schlichtes, modernes und seriöses HTML-Template verwendet, auf Basis dessen eine Website erstellt wurde, welche suggerierte, dass andere Websites auf Ihre Sichereit geprüft werden können. Das Test-Projekt crawlte demnach andere Webseiten und gab deren Meta-Informationen und andere Werte auf einer eigenen URL wieder aus. Ein sog. Content-Scraper.

    Google AdSense wurde auch eingesetzt, allerdings über einen  intelligenten Ausgabeweg. Die Werbeanzeigen wurden nur eingeblendet, wenn der Besucher einen Google-Referrer aufwies. Nicht Google-Traffic sah keine Werbung. Dies hatte den Vorteil, dass z.B. Google Quality Rater, welche zu 90% eine URL über einen sog. Type-In aufrufen, keine AdSense-Anzeigen sah und somit die Website wohlmöglich nicht als “Spammy” einstuften. Wohlmöglich wurde sie sogar als relevant gewertet.

    Zudem ließ Dominik seine Website auch in den Google Webmaster Tools verifizieren und setzte Google Analytics ein. Diese Maßnahmen sollten Vertrauen suggerieren, denn herkömmlicher Spammer würde sich über diese Tools keine Gedanken machen.

    Ohne Links geht es natürlich nicht. Also wurden 120 zufällig ausgewählte Domain aus der Expired-Datenbank mittels 301-Weiterleitung auf das Projekt gesetzt. Alles auf einmal und an einem Tag. Da man aber auch “echte” Links braucht, wurde ein Fake-Siegel mit Link zu Website bereitgestellt, welches von rund 80 anderen Domains eingebunden wurde, das es die Sicherheit der eigenen Internetseite “bescheinigte”. Das Siegel wurde in die Cloud von Amazon ausgelagert, damit es von Google nicht direkt der Test-Domain zugeordnet werden konnte. Siegel funktionieren generell bei Shops sehr gut, so dass 40% der “natürlichen Links” von Shop-Seiten kamen.

    Über das Scrapen von anderen Website hinaus wurde zahlreiche APIs genutzt, um zusätzlichen neuen Content zu erstellen. Für die Content-Syndikation wurde u.a. DMOZ und Facebook Likes genutzt. Um die Bounce Rate des Spam-Projekts zu reduzieren schrieb Dominik ein kleines Script, welches den Browser-Back Button deaktivierte.

    Die Website konnte 2.000 bis 4.000. eindeutige User pro Tag verzeichnen und eine Vielzahl guter Rankingpositionen für sich beansprochen. Im SISTRIX Sichtbarkeitsindex stieg die Domain schnell auf 3,5 Punkte empor und erreichte zeitweilen einen Höchstand von 6 Punkten. Das über Google AdSense monetarisierte Test-Projekt erzielt noch heute tägliche Einnahmen von rund 30 Euro.

    Niels Dörje: Next level Google Universal Search – Local in combination with Social and Mobile

    Das langfristige Ziel von Google sei die lokale Suche, sagt Nils Dörje und verdeutlicht in seinem Vortrag die Wichtigkeit von Google Local und rät heutzutage auf eine “Mobile First Strategie” zu setzen.

    Einige seiner Projekte beziehen ihren Traffic bereits zu 50% aus der lokalen Suche und Google verfolgt seine Mobile Strategie seit 2008 mit Nachdruck.

    Bei einer Mobile First Strategie gibt es drei Cases, um User auf Keywordebene targeten zu können: Unterwegs, beim Shoppen und zu Hause. Die ersten beiden Cases lassen sich durch local SEO und SEA abdecken. Für den dritten nutzt man Apps oder das Mobile Web.

    Mobile wird das Herz von Google. Mobile Services müssen einfach sein.– Nils Dörje

    Um in der lokalen Suche gut gefunden zu werden, ist ein optimierter Google Places-Eintrag sowie eine dafür vorbereitete Website unabdinglich.

    Der größte Rankingfaktor ist hierbei die Konsistenz der Telefonnummer über alle Kanäle hinweg: auf der Website, dem Google Places Eintrag und weiteren Branchenbüchern der DeTeMedien Gruppe.

    Weitere Ranking-Signale der lokalen Suche sind:

    • lokale Links
    • Reviews
    • Social Signals (von Google+ Autoritäten sowie Facebook Likes)
    • Mobile Signale: CTR, Click to Call, Check-Ins


    Wie ein Google Places Eintrag angelegt oder ein vorhandener optimiert werden kann, ist in unserem Tutorial Google Places Optimierung in verständlichen Schritten erklärt.

    Sepita Ansari: Content Marketing Praxis – Vom Audit bis zur Outreach

    Seoday Portrait Sepita Ansari

    Sepita Ansari

    Sepita Ansari brachte uns die Praxis des Content Marketings näher und erklärte den Prozess vom Audit bis zum Outreach. Inhaltlich könnte man mit diesem Vortrag ein- oder zweitägige Workshops abhalten. Der Informationsgehalt des Vortrages war enorm, da auf fast jeden Schritt im Content Marketing Prozess eingegangen wurde. Glücklicherweise wurde das Panel von Sepita aufgezeichnet, welches ihr euch folgend anschauen könnt:

    Christian Tembrink: Wieso die Zukunft des Online Marketings im Videomarketing liegt

    “Bei „Wieso die Zukunft des Online Marketings im Videomarketing liegt“ hat Christian Tembrink von netspirits seinen Zuhörern näher gebracht, wie Google mit YouTube versucht immer mehr in die Wohnzimmer der Menschen zu kommen und wie man mit Videos auch jetzt schon sehr gut ranken kann.

    Unser Leben verschmilzt immer mehr mit der digitalen Welt.– Christian Tembrink

    Besonders die neue YouTube App für die Samsung Smart-TV Reihe ist hervorzuheben, da über diese Videos wie ein TV Kanal geschaut werden können.

    YouTube ist alleine aus den Gründen interessant, dass es sich zuerst einmal um die Webseite mit dem 3t stärksten Traffik in Deutschland handelt. Dazu kommt noch, dass es die 2t meist genutzte Suchmaschine in Deutschland ist und auch die Funktionen eines Sozialen Netzwerkes mit sich bringt.

    Interessant zu hören war, dass sich, laut Comscore, die Altersverteilung der Nutzer über die letzten Jahre hinweg von den „Young Adults“ zu den „Silver Surfers“ gewandelt hat, was man bei der Contenterstellung im Hinterkopf behalten kann.

    Christian konnte dann anhand zweier Slides zeigen, dass Google bei über 50% der Suchanfragen mindestens ein Video Ergebnis mit in den SERPs anzeigt und dass Heatmaps von SERPs mit Video Previews, massiv die Blicke anziehen, auch wenn das Ergebnis nicht an erster Stelle steht.

    Google bietet direkt über YouTube viele Möglichkeiten Videos zu erstellen und zu bearbeiten, und das kostenfrei.

    Wichtig ist auch, sich einen YouTube OneChannel als Firmenkanal einzurichten. Dieser ist noch recht neu und mit vielen Optionen von der Gestaltung her individuell anpassbar.

    Dieser Kanal ist jedoch mit ein wenig Vorsicht zu genießen, da dort auch, vom Inhaberaccount angeschaute, Videos auf YouTube mit angezeigt werden können.

    Der Take-Away dieser Session war ganz klar die Aussage, dass Videos schnell und leicht zu erstellen sind und auch jetzt schon sehr gut ranken können. Man sollte jedoch die inhaltliche Qualität nicht vernachlässigen.

    Siwen Zhang: SEO Insights Baidu

    Seoday Portrait Siwen Zang

    Siwen Zang

    Wer sich immer schon mal gefragt hat, wie die Arbeit eines SEOs für den Chinesischen Raum aussieht, war bei der Session „SEO Insights Baidu“ von Siwen Zhang genau am richtigen Platz.

    Der Suchmaschinenmarkt in China wird mit über 60% Marketshare von Baidu dominiert, während Google mit <3% nur unter „ferner liefen“ mitspielt.

    Bei China handelt es sich um einen schnell wachsenden Absatzmarkt, mit einer riesigen Anzahl an potentiellen Kunden. Über 40% der Chinesen sind jetzt schon online und Prognosen gehen davon aus, dass in den kommenden Jahren mehr Umsatz über Chinesische Konsumenten generiert wird als über Amerikanische.

    In China gibt es echte Pandas!– Siwen Zhang

    Es gibt jedoch auch massive Unterschiede in der Sichtbarkeit einer SEO Kampagne zwischen Baidu und Google. Alle die sich jetzt schon beschweren, dass Google viel zu viele AdWords angezeigt, werden spätestens bei der Erklärung, inklusive Slides, dass bei Baidu über Werbung noch viel mehr (vom einfachen Werbeblock bis hin zum Dominieren der SERPs) machbar ist, die Hände über dem Kopf zusammen geschlagen haben. Für jeden mit einem großen Marketingbudget und Erfahrung in SEA handelt es sich hier natürlich um die reinste Spielwiese.

    Da unter Umständen also nicht viel Platz für organische Ergebnisse auf der ersten Seite bleibt, ist es erfreulich zu hören, dass die Baidu Algorithmen noch nicht so ausgefeilt sind wie die von Google und man heute noch SEO-Ansätze und -Techniken bei Baidu nutzen kann, die bei Google schon seit 3-5 Jahren nicht mehr ziehen.

    So setzt Baidu noch stark auf META Daten, die Länge des in den Ergebnissen Angezeigten Titles ist viel kürzer und die CTR der Ergebnisse ist ein wichtiger Rankingfaktor. Dafür funktioniert Keywordstuffing noch bis zu einem gewissen Grad und auch kann man beim Linkaufbau immer noch nach der Devise: „Quantität vor Qualität“ arbeiten.

    Bei all diesen Angaben ist jedoch Vorsicht geboten, da Baidu kontinuierlich an seinen Algorithmen arbeitet und diese verbessert.

    Ein lokaler Bezug der Suchergebnisse ist dank der Größe des Landes sehr wichtig. Baidu Suggest hat einen großen Stellenwert, da chinesische Schriftzeichen länger zum Eintippen benötigen. Chinesische User geben gerne nur einen Suchbegriff ein und schauen sich dann an, welche weiteren Ergebnisse über Suggest mit angezeigt werden, um sich so ‚durchzuklicken‘.

    Wer jetzt Lust bekommen hat sich ins Abenteuer zu stürzen, dem sei noch gesagt, dass es essentiell wichtig ist, einen Nativ-Speaker zur Contentgenerierung zu engagieren.

    Christian Solmecke: Schulden Suchmaschinenoptimierer einen konkreten Erfolg? Rechtliche Auswirkungen und Handlungsbedarf nach dem Urteil des LG Amberg.

    Wo bekommt man einen  45 Minuten Termin mit einem Fachanwalt für IT-Recht, der dann auch noch etwas von SEO versteht für unter 500 Euro? Wohl nur auf dem SEO Day.

    Heute darf ich mal Entwarnung geben.– Christian Solmecke

    Christian Solmecke von der Kanzlei WILDE BEUGER SOLMECKE ist in seiner Session „Schulden Suchmaschinenoptimierer einen konkreten Erfolg?“ wieder auf den viel zitierten Fall des LG Amberg eingegangen und hat neben der schon in Blogs und Fachzeitschriften publizierten Auswertung zum Thema „Wann ist ein Vertrag ein Werkvertrag und wann ein Dienstvertrag?“ einen weiteren Aspekt dieses Falles besprochen:

    „Wie groß ist der Spielraum des SEO Unternehmens hinsichtlich der Erbringung der geschuldeten Tätigkeit?“

    Im dem Fall vor dem LG Amberg ging es um den Spielraum bei gesetzten Blogkommentaren. Hier war es der Fall, dass, durch Blogkommentare auf „falschen“ Seiten, die Firma des Kunden in ein schlechtes Licht gerückt wurde und somit eine Verunglimpfung des Unternehmens vorliegt.

    Das Fazit hier lautet ganz klar: Linksetzung sollte genau abgestimmt werden. Der Kunde sollte auf Risiken hingewiesen werden. Wenn er diese Schriftlich bekommen hat und auf deren Umsetzung besteht, trägt auch er die Verantwortung. Es ist also ganz wichtig sich mit seinem Kunden abzustimmen.

    Worauf sollte man also beim Abschluss eines SEO-Vertrags achten? Christian hat mehrere Textbausteine zu den Themen „Beschreibung des Leistungsumfangs“, „Schuldung eines Erfolges“ und „Haftungsausschluß bzgl. Rechtsverletzungen Dritter“ in seinen Slides dabei. Alle die, die nicht schnell genug schreiben konnten, können also hoffen, dass die Präsentation noch veröffentlicht wird.

    Die anschließende Fragerunde hat viele weitere interessante Erkentnisse zu Tage gebracht, die ich hier kurz zusammenfassen möchte:

    Man darf den Namen der Konkurrenz nicht im Metatag der Seite nutzen. Hierbei handelt es sich um einen Markenmißbrauch der abgemahnt werden kann. Die Nutzung einer konkurrierenden Marke bei einer AdWords Anzeige (auch auf das Brand-KW des Konkurrenten) ist hingegen nicht pauschal verboten, solange gewisse Regeln eingehalten werden.

    Bei Cloaking und Doorwaypages handelt es sich wahrscheinlich nicht um einen rechtlichen Wettbewerbsverstoß.

    In Deutschland gilt eine Impressumspflicht für Blogs, auch wenn diese, zum Beispiel, über Tumblr laufen. Diese Erkenntnis scheint noch nicht bei jedem Seitenbetreiber angekommen zu sein.

    Bei geschäftlichen Beziehungen ist eine Auftragsbestätigung ein Vertrag, wenn diesem nicht wiedersprochen wird.

    Zum Schluß kam dann noch die mit Spannung erwartete Frage, ob ein SEO Dienstleister denn auch für Traffikverluste durch Penguin haftbar gemacht werden kann? Hier wird es wohl darauf ankommen, wie die Richtlinien von Google (und/oder die des BVWD) vor dem Algorithmus Update ausgesehen haben und ob diese eingehalten wurden. Auch hier gilt wieder: „War es vorher mit dem Kunden abgesprochen, kann er sich nicht auf Unwissenheit berufen“.

    Jens Fauldrath: Mastering Google News

    Seoday Portrait Jens Fauldrath

    Jens Fauldrath

    “Mastering Google News”. Kann man das überhaupt in 45 Minuten alles erklären? Jens Fauldrath von takevalue hat sicher dieser Frage angenommen und dem gespannten Publikum in der vorhandenen Zeit die nötigen Informationen in einem Tempo in den Kopf geschaufelt, bei dem der Ansatz eines Verständnisses wohl eher nächste Woche ankommt und an mitschreiben so gut wie gar nicht zu denken war.

    Aus diesem Grund ist dieser Beitrag auch sehr Stichpunktartig und wir können nur hoffen, dass der Vortrag, oder wenigstens die Slides, bald ihren Weg ins Netz finden.

    Um Google News zu meistern muss man erst einmal verstehen, wie Google News aufgebaut ist und wo der Traffik herkommt.

    Google News ist unabhängig von Matt Cutts‘ Voodoo– Jens Fauldrath

    Neben der eigenen Google News Seite kann „bei gut eingestellten Feeds 60% + des Traffics“ durch die Google News Boxen erzielt werden.

    Die Google News SERPs sind anders aufgebaut als normale SERPs und es herrschen andere Spielregeln. Der entscheidende Satz von Jens hierzu: „Google News ist unabhängig von Matt Cutts‘ Voodoo“.

    Die Newsboxen haben den Vorteil, dass sie eher nur bei Themen in den organischen SERPs gezeigt werden die grade trenden, dort dann jedoch eine extrem hohe Sichtbarkeit haben. Hier geht es darum viel Traffik in einer sehr kurzen Zeit zu erzielen.

    Surpise: Google News nutzt das Keywords Meta Tag.

    Artikel sollten auch nicht älter als 24 Stunden sein und die „CTR ist Hölle Hölle wichtig!“

    Google muss ein besonderes Vertrauen in die Quelle haben, hier gibt es 3 Unterscheidungen: Premium Sources, Medium Sources, und der Rest. Man muss sich mühsam von unten durch kontinuierliches Publishing in der Vertrauenshierarchie hocharbeiten.

    Bei News ist eine ausführliche Keywordrecherche nicht möglich, da es eine strikte Zeitbeschränkung gibt. Es lässt sich gut messen, „ob man schon dabei ist und ob man auch mit einem Artikel in die News Box gekommen ist.“

    Hier hat Jens ein Dashboard vorgestellt dass noch zu Telekom-Zeiten entwickelt wurde, welches die Datenvisualisierung für News ermöglicht.

    Von den Big Playern schafft es SPON zum Beispiel, mit weniger Sichtbarkeit in Google News in mehr News Boxen aufzutauchen, nur dank ihrer hohen CTR.

    Die verschiedenen Bereiche von News haben verschiedene Top-Player, außerdem gibt es pro Region verschiedene Premium Sourcen.

    Bei der technischen Optimierung sollte darauf geachtet werden, wie man seine Templates aufbaut. Hier kann man bei den ‚Großen‘ schauen, wie diese vorgehen. Ganz wichtig ist es eine realtime Sitemap zu haben! Es geht ja schließlich um Minuten. Zudem sollte man auch von Discovery Crawling auf News Sitemap umschalten.

    Author Tag / Author Rank bringt noch nicht viel und ist eher problematisch, wenn der Author dann woanders hin wechselt.

    Da News sehr Zeitsensitiv sind ist die Workflow Optimierung auch sehr wichtig. Hier ist zu sagen, dass immer alles editierbar sein sollte, was zu einem Problem für manch ein CMS werden kann. Auch ist es unglaublich hilfreich dem Redakteur eine Snippetvorschau anzuzeigen und zu erklären, dass dies sein „Teaser“ ist. Redakteure wissen dann was sie zu tun haben; vertraut auf euren Redakteur!

    Google Suggest sowie Google News Suggest sollten mit angezeigt werden. Dabei handelt es sich um unterschiedliche Features und auch unterschiedliche Vorschläge.

    Eine Real-Time-Analyse der Daten ist ein Muss, da ein Beitrag, bei schlechter CTR, auch noch einer Minute wieder aus der News Box verschwindet. Auch hier gilt: „Gute Titel ziehen gute CTR!“

    Als Fazit können wir festhalten:

    • Auch die „Großen“ machen noch lange nicht alles richtig.

    • Es ist möglich seine eigene Nische zu finden und dort erfolgreich zu sein.

    • Mache Deine technischen Hausaufgaben, der NewsBot von Google ist „schwierig“.

    • Google News Optimierung ist extrem aufwendig.

    • Leider gibt es auch bei Google News das „Not Provided“ Problem.

    Videoaufzeichnung anderer Panels

    Andreas Graap und Team haben einige der anderen Vorträge auf Video festgehalten. Hier könnt ihr sie euch anschauen.

    The post SEO Day 2013 appeared first on SISTRIX.

    SISTRIX

  • Monthly Archives: Oktober 2013

  • SEO bis zur Rente?

    Oktober 17, 2013 1:19 pm - Posted by admin Category:SEO + SEM

    Gestern hat in Köln erneut der SEODAY im Rheinenergiestadion stattgefunden. Da ich um die Folien zu meinem Vortrag „SEO bis zur Rente?“ gebeten wurden, möchte ich ihn direkt hier im Blog veröffentlichen und zur Diskussion stellen. Nach mehr als 10 Jahren in dieser Branche stellt sich für mich die Frage, in welcher Form es die nächsten Jahre weitergehen kann. Hier die Folien (PDF-Download):

    Auf Basis einer Online-Umfrage unter 153 SEOs habe ich versucht zu ergründen, vor welchen Herausforderungen wir in den nächsten 10 Jahren stehen. Zum einen ist es eher unwahrscheinlich, dass Google und Facebook weiterhin die dominierende Rolle wie aktuell spielen werden. Zum anderen entwickelt sich aber auch unsere Branche selber weiter: höhere Geschwindigkeit und steigender Wettbewerbsdruck machen die Arbeit nicht leichter. Ein Wechsel in eine andere Branche dürfte für viele nicht in Frage kommen – zu viel Lebenszeit haben sie bereits mit Online-Marketing verbracht als dass sie woanders wieder bei null anfangen wollen.

    Abschließend habe ich 3 SEO-Prototypen vorgestellt: der Online-Marketing-Manager, ein vertikaler Spezialist, der sich in einer Branche richtig gut auskennt und alle Online-Marketing-Maßnahmen für Unternehmen in dieser Branche anbietet und ein horizontaler Spezialist, der sich auf ein Thema fokussiert und dort seine Reputation mehrt.

    The post SEO bis zur Rente? appeared first on SISTRIX.

    SISTRIX

  • Monthly Archives: Oktober 2013

  • SEO-Tippspiel: Sichtbarkeitsindex huffingtonpost.de

    Oktober 10, 2013 7:21 pm - Posted by admin Category:SEO + SEM

    Nachdem unser SEO-Tippspiel zu yelp.de gut angekommen ist und es gerade ein weiteres passendes Ereignis gibt, veranstalten wir gerne eine Fortsetzung. Heute ist die Huffington Post Deutschland mit dem Ziel gestartet, auch hierzulande mit ihrem Konzept den etablierten und teilweise kriselnden Nachrichtenangeboten Marktanteile streitig zu machen.

    Die 2005 von Arianna Huffington gegründete und 2011 von AOL für 315 Millionen US-Dollar übernommene Huffington Post ist in den USA zu einer der meist gelesenen Nachrichtenseiten geworden. Ein Großteil der Beiträge wird von unbezahlten freiwilligen Autoren verfasst. Der deutsche Ableger ist eine Kooperation von AOL mit der Burda-Tochter Tomorrow Focus.

    Uns interessiert dabei natürlich insbesondere die SEO-Sicht auf das Ereignis. Was glaubt ihr, wie schnell kann huffingtonpost.de Sichtbarkeit bei Google in Deutschland aufbauen und mit wie vielen Punkten im SISTRIX Sichtbarkeitsindex wird die Website am 30.12.2013 das erste Kalenderjahr beenden?

    Ich habe gerade schon einmal den SISTRIX Optimizer über huffingtonpost.de laufen lassen und der Crawler hat 4.594 Seiten gefunden. Ein stolzer Wert für den ersten Tag.

    SISTRIX Optimizer Huffington Post Deutschland

    SISTRIX Optimizer Huffington Post Deutschland

    Zu einem großen Teil handelt es sich dabei allerdings um Tag-Seiten wie http://www.huffingtonpost.de/tag/suchmaschinen, welche auf NoIndex gesetzt sind. Für das Ranking vorgesehen sind anscheinend die auf den ersten Blick identischen Seiten im Verzeichnis /news/ wie http://www.huffingtonpost.de/news/suchmaschinen. Auch wenn der Optimizer mit insgesamt 4.594 SEO-Tipps für huffingtonpost.de noch einige Unsauberkeiten gefunden hat, wie z.B. 88 intern verlinkte Seiten, die zu einer 404-Fehlermeldung führen, lässt alleine die hohe Anzahl Themen-Seiten zum Start erahnen, dass man selbstverständlich auch bei der Huffington Post Deutschland auf SEO als wichtiges Marketing-Werkzeug setzt.

    Wie schnell wird das gelingen? Schreibe einen Kommentar unter diesen Blogpost und tippe, welchen Wert im Sichtbarkeitsindex huffingtonpost.de am 30. Dezember 2013 in Deutschland haben wird. Wer mit seinem Tipp dem tatsächlichen Wert am nächsten kommt, gewinnt einen Amazon-Gutschein in Höhe von 50 Euro.

    Auch bei dem Tippspiel gilt wieder die Regel, dass pro Person bitte nur einen Tipp abgeben wird. Die Tipps müssen bis einschließlich 12. Oktober 2013 abgegeben werden. Wir wünschen allen Mitspielern ebenso wie der Huffington Post Deutschland viel Erfolg.

    The post SEO-Tippspiel: Sichtbarkeitsindex huffingtonpost.de appeared first on SISTRIX.

    SISTRIX

  • Monthly Archives: Oktober 2013

  • SEO-Tippspiel: Sichtbarkeitsindex von yelp.de

    Oktober 8, 2013 1:32 pm - Posted by admin Category:SEO + SEM

    Nachdem Qype im letzten Jahr von dem US-amerikanische Bewertungsportal Yelp für rund 50 Millionen Euro übernommen wurde, findet jetzt schrittweise ein Zusammenführen der beiden Plattformen statt.

    In den meisten Ländern werden die Besucher von Qype bereits auf Yelp weitergeleitet. Die Migration in Deutschland, dem sicherlich bedeutendsten Qype-Land, steht allerdings noch bevor. Sie soll gerüchteweise im Zeitraum Ende Oktober / Anfang November 2013 stattfinden.

    Während sich z.B. in Italien die Migration sehr positiv auf die Sichtbarkeit von yelp.it ausgewirkt hat, haben Qype und Yelp in Spanien in Summe durch das Zusammenwachsen ein wenig an Sichtbarkeit verloren. Die Sichtbarkeit von Qype konnte dort nicht komplett auf Yelp übertragen werden.

    Sichtbarkeitsindex Qype vs. Yelp in Italien und Spanien

    Vergleich Entwicklung Sichtbarkeitsindex Qype vs. Yelp in Italien und Spanien

    Obwohl die Prozesse wahrscheinlich weitestgehend identisch waren, fallen die Ergebnisse durchaus unterschiedlich aus. Gründe kann man in der Google-Historie der betroffenen Domains und dem Grad der Überschneidungen suchen.

    Das Zusammenführen solcher großen Websites und die damit verbundenen Effekte sind daher gerade auch aus der SEO-Sicht sehr spannend. Um es noch etwas spannender zu machen, haben wir uns ein kleines Gewinnspiel überlegt. Schreibe einen Kommentar unter diesen Blogpost und tippe, welchen Wert im Sichtbarkeitsindex yelp.de am 18. November 2013 in Deutschland haben wird.

    Entwicklung Sichtbarkeitsindex Qype vs. Yelp in Deutschland

    Entwicklung Sichtbarkeitsindex Qype vs. Yelp in Deutschland

    Aktuell besitzt qype.com 114,64 Punkte im Sichtbarkeitsindex und yelp.de 26,90 Punkte. Zusammen wären es rechnerisch derzeit also 141,54 Punkte. Wird der Wert von yelp.de am 18. November darüber oder darunter liegen?

    Belkin WeMo Home Automation Switch für iOS- und Android-Geräte

    Belkin WeMo Home Automation Switch für iOS- und Android-Geräte

    Wer mit seinem Tipp dem tatsächlichen Wert am nächsten kommt, gewinnt einen Belkin WeMo Home Automation Switch. Diese Steckdose kannst Du über Dein Smartphone (iOS und Android) oder das Internet (If this than that) steuern. Mit dem richtigen IFTTT-Rezept kannst Du so z.B. eine Lampe leuchten lassen, wenn am Sonntag die neuen SISTRIX-Zahlen veröffentlicht wurden oder es einen SISTRIX-Alert für Deine Domain gibt.

    Bitte nur einen Tipp pro Person abgeben. Die Tipps müssen bis einschließlich 12. Oktober 2013 abgegeben werden. Wir wünschen allen Mitspielern und selbstverständlich auch Yelp viel Erfolg.

    The post SEO-Tippspiel: Sichtbarkeitsindex von yelp.de appeared first on SISTRIX.

    SISTRIX

  • Monthly Archives: Oktober 2013

  • IndexWatch 10/2013

    Oktober 2, 2013 1:20 pm - Posted by admin Category:SEO + SEM

    Es wird Zeit, dass wir wieder regelmäßig den IndexWatch veröffentlichen. Beginnen möchten wir mit den Index-Watch-Zahlen für September 2013. Wir haben die Gewinner und Verlierer im Google-Index anhand ihres Sichtbarkeitsindizes am Anfang und am Ende des Monats ermittelt. Los geht es mit den Gewinnern des letzten Monats:

    Gewinner

    # Domain Veränderung
    1 stadtbranchenbuch.com +48%
    2 3sat.de +39%
    3 fressnapf.de +38%
    4 hrs.de +38%
    5 stepstone.de +37%
    6 moviepilot.de +35%
    7 datingjungle.de +32%
    8 rki.de +29%
    9 informer.com +29%
    10 lotto.de +28%
    11 deutsch-porno.net +27%
    12 kaufda.de +26%
    13 mediamarkt.de +26%
    14 hornbach.de +26%
    15 autohaus24.de +25%

    fressnapf.de konnte im vergangenen Monat seinen seit Mitte März 2012 anhaltenden Aufwärtstrend mit einem großen Sprung weiter ausbauen. Auf Verzeichnisebene wird deutlich, dass http://www.fressnapf.de/shop/ dafür ausschlaggebend ist. Das Ratgeber-Verzeichnis http://www.fressnapf.de/ratgeber/ profitiert ebenfalls leicht, wohingegen die Community http://www.fressnapf.de/community/ leicht an Sichtbarkeit verloren hat.

    Verzeichnisse mit der größten Sichtbarkeit von fressnapf.de

    Verzeichnisse mit der größten Sichtbarkeit von fressnapf.de

    moviepilot.de konnte auf ganzer Linie punkten und setzt seinen Aufwärtstrend weiter fort. Nachdem das Portal in der Vergangenheit womöglich mit dem Panda Filter zu kämpfen hatte, ist man seit Mai 2013 wieder auf Erfolgskurs. Ob es u.a. etwas damit zu tun hat, dass Videoload.de im April diesen Jahres damit begann, Filmbewertungen von moviepilot.de zu integrieren?

    hrs.de, stepstone.de und mediamarkt.de zeichnen, legt man sich alle drei Sichtbarkeitsverläufe übereinander, das ähnlich gleiche Bild einer abrupt abfallenden Sichtbarkeit des stärksten Verzeichnisses in dem Zeitraum April bis August. Jetzt scheinen sich jedoch alle drei Domains wieder zu erholen und zu alter Stärke zurück zu finden.

    Sichtbarkeitsverlauf der drei Domains hrs.de, stepstone.de und mediamarkt.de übereinander gelegt

    Sichtbarkeitsverlauf der drei Domains hrs.de, stepstone.de und mediamarkt.de übereinander gelegt

    Verlierer

    # Domain Veränderung
    1 guenstiger.de -40%
    2 myspace.com -32%
    3 gutscheinsammler.de -31%
    4 androidpit.de -31%
    5 theguardian.com -31%
    6 urlm.de -29%
    7 itwissen.info -28%
    8 billigflieger.de -28%
    9 netdoktor.de -28%
    10 wer-weiss-was.de -26%
    11 noz.de -25%
    12 mycare.de -24%
    13 schwab.de -24%
    14 billiger.de -20%
    15 hitmeister.de -19% >

    Unter den Verlieren erlitt netdoktor.de einen Rückfall. Konnte sich die Domain Mitte Juli 2013 aus den Krallen des Panda-Filters befreien, so verlor man die einst gewonnenen Sichtbarkeit erneut. Auf Verzeichnisebene litt lediglich das Verzeichnis der Krankheiten http://www.netdoktor.de/krankheiten/, wohingegen die Krankheitssymptome http://www.netdoktor.de/symptome/ sich weiterhin bester Gesundheit erfreuen.

    Sichtbarkeitsverlauf der stärksten Verzeichnisse von netdoktor.de

    Sichtbarkeitsverlauf der stärksten Verzeichnisse von netdoktor.de

    Bei der Versandapotheke mycare.de hat man sich offensichtlich dazu entschlossen, Besuchern des Online-Shops unter http://www.mycare.de/online-shop/ einen HTTP-Statuscode 404 zu präsentieren. Wo der User nicht weiterkommt, kommt es der Google-Bot auch nicht.

    The post IndexWatch 10/2013 appeared first on SISTRIX.

    SISTRIX

  • Monthly Archives: Oktober 2013

  • SEO-Stammtisch Bonn am 24.10.2013

    Oktober 1, 2013 7:07 pm - Posted by admin Category:SEO + SEM

    SEO-Stammtisch Bonn

    Nach den beiden großen Konferenzen SEO Day (Köln) und OMCap (Berlin) wird es am 24. Oktober 2013 ab 19 Uhr noch eine gemütliche Runde für SEOs in Form des SEO-Stammtisches Bonn geben.

    Die Veranstaltung verläuft wieder garantiert ohne Vorträge, dafür mit viel Geselligkeit und Erfahrungsaustausch rund um den aktuellen Google-Zoo.

    Einsteiger können “alte Hasen” unkompliziert ansprechen und es wird ausdrücklich gerne gesehen, wenn auch einmal der Platz gewechselt wird, um sich an einem anderen Tisch mit weiteren Weggefährten zu unterhalten.

    Wer Lust und Zeit hat, meldet sich einfach über dieses Formular kostenlos und unverbindlich an.

    Ein paar Tage vor dem Stammtisch erhaltet Ihr wie immer eine E-Mail mit allen Detail-Infos zum Stammtisch.

     

     

    The post SEO-Stammtisch Bonn am 24.10.2013 appeared first on SISTRIX.

    SISTRIX

  • Monthly Archives: Oktober 2013

  • Fallstudie: Linkprofil von einzelnen Verzeichnissen beachten

    1:13 am - Posted by admin Category:SEO + SEM

    Diese Woche haben wir eine E-Mail mit der Bitte erhalten, die jüngsten Entwicklungen der Domains bergfreunde.de und parhsip.de in einem Blogpost zu analysieren.

    Entwicklung Sichtbarkeitsindex bergfreunde.de und parship.de

    Entwicklung Sichtbarkeitsindex bergfreunde.de und parship.de

    Man sieht bei beiden Domains einen ungewöhnlich starken Einbruch im Sichtbarkeitsindex in den beiden Wochen nach dem 16.09.2013. Wenn mehrere Domains zum gleichen Zeitpunkt eine ähnliche Entwicklung zeigen, stellen sich natürlich Fragen nach eventuell gemeinsamen Ursachen und Google Updates.

    Da sich SEOs häufig solchen Fragen ausgesetzt fühlen, greife ich den Vorschlag zu einem Blogpost gerne auf.

    Selbstverständlich ist es so, dass die Anzahl von zwei Domains zu gering ist, um daraus allgemeingültige Rückschlüsse zu bilden. Eine gemeinsame Entwicklung kann gemeinsame Ursachen haben, aber auch purer Zufall sein. Diskussionen an Einzelbeispielen sind wahrscheinlich auch der Grund, warum in vielen Foren sehr kontrovers diskutiert wird. Für jedes Einzelbeispiel lässt sich garantiert auch ein Gegenbeispiel finden, so dass die Diskussionen oft fruchtlos enden.

    Da Google im Jahr ca. 500 Updates durchführt und sich in jüngster Zeit mit Informationen zu den Updates stark zurückhält, wären Aussagen über ein mögliches Update zudem sehr spekulativ. Es bleibt uns also nicht anderes übrig, als einen tieferen Blick auf die Domains zu werfen und mögliche Theorien für den Rückgang der Sichtbarkeit zu entwickeln.

    In solchen Fällen beginne ich die Analyse immer gerne damit, eine Domain in mehreren Teilstücke zu zerlegen. Das können z.B. Hostnamen (Subdomains) oder Verzeichnisse sein. Auf diese Weise möchte ich herausfinden, ob alle Teilstücke gleichermaßen von einem Rückgang betroffen sind, oder nur bestimmte Teile der Domain. Im ersten Fall wäre der Rückgang eher auf domainweite Kennzahlen zurückzuführen, im zweiten Fall wäre hingegen wahrscheinlich ein konkreter Hostname oder ein bestimmtes Verzeichnis die Ursache. Auf diese Weise lassen sich viele Theorien schon einmal gut ausschließen.

    Schauen wir uns zuerst in SISTRIX Next die Entwicklung der stärksten Verzeichnisse bei bergfreunde.de an. Es lässt sich auf den ersten Blick erkennen, dass nicht alle Verzeichnisse gleichermaßen vom Rückgang betroffen sind. Vielmehr sind für das Verzeichnis www.bergfreunde.de/marken/ deutlich stärkere Rückgänge zu beobachten. Diese erfolgten zeitlich auch schon zu einem früheren Zeitpunkt.

    Sichtbarkeitsindex Verzeichnisse bergfreunde.de

    Sichtbarkeitsindex Verzeichnisse bergfreunde.de

    Ein ähnliches Bild zeigt die Analyse der Verzeichnisse von parship.de. Hier ist das Verzeichnis www.parship.de/themen/ stark betroffen, während die Verzeichnisse www.parship.de
    /leistungen/ und gay.parship.de/themen/ sogar an Sichtbarkeit zulegen konnten.

    Sichtbarkeitsindex Verzeichnisse parship.de

    Sichtbarkeitsindex Verzeichnisse parship.de

    Die domainweite Bewertung durch Google scheint also nicht primär die Ursache für die sinkende Sichtbarkeit der beiden Domains zu sein. Vielmehr sollten wir die Ursachen in den konkreten Verzeichnissen suchen. Schaut man sich die Keywords an, zu denen die Verzeichnisse Rankings erzielen, sieht man recht deutlich, dass es sich um sehr umkämpfte Keywords handelt.

    Gerade bei solchen kompetitiven Keywords lohnt es sich immer einen Blick auf die Backlinks zu werfen. Dieses machen wir aufgrund unserer ersten Analyse nicht für die gesamte Domain, sondern gezielt für die betroffenen Verzeichnisse.

    Für www.bergfreunde.de/marken/ liefert die Toolbox folgende Daten als häufigste Linktexte.

    Linktexte Verzeichnis www.bergfreunde.de/marken/

    Häufigste Linktexte Verzeichnis www.bergfreunde.de/marken/

    Es ist nicht ausgeschlossen, dass Google mit diesem Mix von Linktexten ein Problem hat. Unter den häufigsten Linktexten findet man zu hohen Anteilen Moneykeywords, mit denen eine Website normalerweise eher selten verlinkt wird. An dieser Stelle vermisst man Linktexte mit dem Markennamen, Domainnamen bzw. URLs oder Texten wie „hier“, die das Linkprofil wesentlich natürlicher erscheinen ließen.

    Das gleiche Bild zeigt sich bei dem Verzeichnis www.parship.de/themen/. Auch hier findet man sehr viele Moneykeywords und der Mix der Linktexte wirkt nicht unbedingt organisch.

    Häufigste Linktexte Verzeichnis www.parship.de/themen/

    Häufigste Linktexte Verzeichnis www.parship.de/themen/

    Eine mögliche Theorie zur Erklärung der Rückgänge im Sichtbarkeitsindex wäre damit gefunden. Eventuell sollte man nicht nur für die gesamte Domain auf ein natürliches Linkprofil achten, sondern auch gezielt bei einzelnen Verzeichnissen. Wann ein Linkprofil unnatürlich wirkt, habe ich vor einigen Wochen in einem Video „Wie prüft man, ob eine Website vom Google Penguin Update 2.0 betroffen ist?“ verdeutlicht.

    Matt Cutts hat das Google Penguin Update 2.0 als „more comprehensive” und “deeper targeting” bezeichnet. Eventuell sehen wir bei den beiden Domains eine neue Iteration vom Penguin 2.0, bei dem stärker auch einzelne Verzeichnisse bewertet werden. Ebenso gut könnte es sich aber auch um eine manuelle Maßnahme von Google handeln oder es wurden weitere Linknetzwerke aufgedeckt. Backlinks als grundsätzliche Ursache für den Sichtbarkeitsverlust dieser beiden Domains in Betracht zu ziehen, scheint nach einem ersten Blick auf die Daten durchaus plausibel.

    Wie eingangs erläutert, kann eine solche Aussage ohne ein offizielles Statement von Google und auf Grundlage von nur zwei Domains maximal eine von mehreren möglichen Theorie sein. Als verantwortlicher SEO sollte man weitere Theorien aufstellen und nach Analyse aller Daten und Fakten entscheiden, mit welchen Maßnahmen man die Website „behandeln“ möchte, um die Rankings „gesunden“ zu lassen. Erscheinen mehrere Theorien plausibel, ist es oftmals für eine schnelle Heilung nicht verkehrt, die Website auch gleichzeitig auch auf mehrere infrage kommende Ursachen zu behandeln.

    The post Fallstudie: Linkprofil von einzelnen Verzeichnissen beachten appeared first on SISTRIX.

    SISTRIX