• E-commerce Solution

    Umsatz machen… … 24 Stunden am Tag, 365 Tage im Jahr. Die Anzahl der sogenannten Webshops oder eShops auf dem Marktplatz Internet steigt täglich an.

    Read More
  • Link Building

    Während bei der Onpage- oder Onsite-Optimierung einer Webseite vornehmlich die Struktur und der Inhalt optimiert werden, fokussiert man beim Linkaufbau in erster Linie das Umfeld der betreffenden Webseite. Beim Linkaufbau versucht man die Anzahl der auf die eigene Webseite verweisenden …

    Read More
  • Content Management

    Open Source Software aus Überzeugung Ein Tätigkeitsschwerpunkt von hauptsache.net ist die Entwicklung von Lösungen unter Verwendung von Open Source Software.

    Read More
  • Web Development

    Comming soon!

    Read More
  • SEO Consulting

    Wie „denken“ Suchmaschinen? Suchmaschinen arbeiten auf unterschiedliche Art und Weise. 

    Read More

    Monthly Archives: August 2013

  • Video SEO: Vergebenes Potential?

    August 29, 2013 7:07 pm - Posted by admin Category:SEO + SEM

    Es ist auffällig, dass trotz Einbrüchen in 2012 die Integration von Videos in den Suchergebnissen immer noch einen starken Anteil ausmacht: Laut Sistrix werden aktuell bei 23,49% der Suchanfragen Video-Thumbnails eingeblendet. Deshalb solltet ihr über eine Optimierung eures Video-Contents nachdenken.

    Rich Snippets ziehen die Klicks an

    Es dürfte kein großes Geheimnis mehr sein, dass Rich Snippets eine tolle Möglichkeit sind, eine höhere Klickrate zu erhalten. Dabei haben die meisten SEOs aber eher das Google+ Autorenprofil oder Bewertungen im Blick. Video wird vernachlässigt, obwohl das Video-Thumbnail im Snippet eine erhöhte Aufmerksamkeit erhält und das Bild sogar frei definiert werden kann. In einer kleinen Eye-Tracking-Studie von Dr. Peter Meyers wurden verschiedene Ergebnisseiten zum Suchbegriff Pizza untersucht. Wie stark die Video-Thumbnails die Blicke der Testkandidaten anzogen, lässt sich auf diesem Bild gut erkennen:

     

    richsnippet

     

    Eine Platzierung Above-the-Fold mit Video-Thumbnail erhält also eine deutlich größere Aufmerksamkeit, als Position 1 auf der Suchergebnisseite.

    Wie sich dies auf die Click-Through-Rate auswirken kann, verrät Markus Klöschen von simyo.de: „Auch, wenn es weitere, externe Faktoren geben wird, sehe ich >20% an Trafficsteigerung bei gleicher Platzierung, die ich auf die Einblendung des Videos in den SERPs zurückführe.“

    Dabei hat Simyo lediglich drei Videos online. Diese ranken zu verschiedenen Keywords, womit die Domain es sogar in die Top 100 der Sistrix Universal Search Video geschafft hat.

    Man muss sich nur einmal die letzten Domains der Top 100 anschauen und wie wenige Platzierungen diese haben. Es ist gut zu erkennen, dass hier noch enormes Potential liegt, da Video-Integrationen bisher nur recht selten eingesetzt werden.

     

    sistrix-domains

     

    Selbst bei Webseiten, auf denen eigene Videos vorhanden sind, fehlen häufig das Video-Markup und die Video-Sitemap. Diese werden benötigt, damit Google die wichtigsten Video-Infos erhält und weiß, auf welcher Seite ein Video eingebunden ist.

    Wer WordPress nutzt, sollte sich das kostenpflichtige Yoast Video SEO Plugin unbedingt ansehen.

    Nach dem Einbau kann es ein paar Wochen dauern, bis Google die Video-Thumbnails auch wirklich anzeigt. In manchen Fällen hilft es dieses Formular bei Google auszufüllen, um den Prozess zu beschleunigen.

    Allerdings muss noch individuell getestet werden, wie sich das Video-Thumbnail auf die Conversion Rate auswirkt.

    Experimentieren mit Video Thumbnails

    Weitgehende Studien liegen noch nicht vor, weswegen je nach Branche und Thematik der Seite ein bisschen experimentiert werden muss. So sollten nach einer kleinen Studie von Mike Blumenthal Anwälte lieber das Google+ Autorenprofil für das Rich Snippet nutzen. Ein Video Thumbnail steigerte die Klickrate nur im Vergleich zu normalen Text-Snippets, unterlag aber dem Autorenprofil. Sehr gute Erfahrungen wurden hingegen im Bereich Gesundheit gemacht, wo dank Video-Thumbails neue Besucherströme für eine Seite erschlossen werden konnten. Testet die Video-Optimierung also am besten erst einmal mit ausgewählten Seiten, bevor ihr es global einsetzen. Aber gerade bei Informations-Suchen wie Kochen, How-To-Anleitungen oder Reviews dürften Video-Thumbnails für Nutzer interessant sein. Am Besten im Titel Begriffe wie „Video“, „Test“, „Review“, „Demo“ usw. mit einbeziehen. Bei solchen Suchanfragen ist Google geneigt Ergebnisse mit Video Thumbnails anzuzeigen, weil davon ausgegangen werden kann, dass dies im Interesse der Suchenden ist.

    Bis vor kurzem war es nicht möglich mit einem Video Thumbnail den ersten Platz in den Suchergebnissen zu erhalten. Das Thumbnail wurde dann einfach nicht angezeigt. Mittlerweile lassen sich solche Ergebnisse jedoch auch finden, wie das folgende Bild verdeutlicht:

    cddvdreparatur

    Fazit

    Noch optimieren wenig Seiten auf ein Video Thumbnail: Das ist eure Chance die Aufmerksamkeit für euer Suchergebnis zu erhöhen. Daraus resultieren steigende Besucherzahlen, welche wiederum euer Ranking zementieren, sofern ihr dem Suchenden auch das bietet, was er erwartet.

    The post Video SEO: Vergebenes Potential? appeared first on SISTRIX.

    SISTRIX

  • Monthly Archives: August 2013

  • Vom SEO-Experten zum Tausendsassa? Nicht so schnell!

    August 23, 2013 7:26 pm - Posted by admin Category:SEO + SEM

    Schaut man sich die Themen, die in SEO-Blogs in letzter Zeit behandelt werden an, so wähnt man sich in der falschen Branche: Julian von Seokratie erklärt uns, was Web-Usability ist, Olaf von Rankingcheck stellt die Grundlagen für Newslettermarketing vor, Gretus ist mit Brillen und Uhren dabei und Marco will uns direkt an die Grenze des Weltalls bringen. Zwar war es in den letzten Wochen ungewöhnlich warm und nur beißende Schildkröten haben uns vor einem waschechten Sommerloch gerettet. Aber ist das die Zukunft von SEO?

    In den letzten Jahren ist ein umfangreicher Erfahrungsschatz gewachsen. Von diesem profitieren jetzt Neueinsteiger sowie Firmen, die bislang kein SEO betrieben haben. Sie kommen jetzt viel schneller zu guten Ergebnissen, da nicht jeder Fehler erneut gemacht werden muss. Somit stellt sich bei vielen Grundlagenthemen Routine ein.

    SEO hat als Thema lange davon gelebt, dass es interessant, aufregend und attraktiv ist. Das Verhältnis zwischen Branchenumsatz und Aufmerksamkeit ist in wahrscheinlich nur wenigen anderen Internetbereichen auf einem vergleichbaren Niveau. Damit das so bleibt, fordern die zahlreichen Konferenzen, Bücher, Blogs und Fachzeitschriften kontinuierlich nach neuen Themen und Erkenntnissen.

    Dadurch sehe ich derzeit die Gefahr, dass die Branche die wichtige Bodenhaftung verliert. Wenn ich mit Personen spreche, die besser gefunden werden wollen, so ist das Problem in der Regel nicht, dass Pi für die wichtige WTF-Formel in der 9. Nachkommastelle falsch berechnet wurde, sondern es mangelt an Grundlagen wie Keyword-Recherche, Informationsarchitektur und crawlerfreundlicher Webseitengestaltung.

    Häufig höre ich die Klage, dass Webagenturen und Dienstleister SEO verkaufen, obwohl sie offensichtlich keine SEO-Experten sind und dem Kunden damit nicht das bestmögliche Ergebnis liefern. Wir als Branche sollten nun aufpassen, dass wir uns auf unsere Stärken konzentrieren und nicht mit einem Bauchladen an Halbwissen durch die Internetwelt laufen.

    The post Vom SEO-Experten zum Tausendsassa? Nicht so schnell! appeared first on SISTRIX.

    SISTRIX

  • Monthly Archives: August 2013

  • Crawling und Indexierung umfangreicher Webseiten

    August 21, 2013 1:42 pm - Posted by admin Category:SEO + SEM

    Sobald Webseiten den typischen Umfang einer privaten Homepage übersteigen, gibt es zahlreiche neue Herausforderungen. Eine davon ist, dass die vorhandenen Inhalte möglichst vollständig und aktuell in den Google-Index gehören. Was sich so einfach anhört, birgt gerade bei sehr großen Webseiten, deren Inhalte aus zahlreichen unterschiedlichen Datenbanken und von verschiedenen Zulieferern kommen, ungeahntes Potential für schwerwiegende Fehler.

    Da sogar bei Google die Ressourcen für das Erfassen und Speichern von Webseiten begrenzt sind, nutzt Google hierfür individuelle Begrenzungen pro Domain: wie viele URLs werden pro Tag gecrawlt, wie viele dieser Seiten davon dürfen in den Googleindex? Umfangreiche Webseiten stoßen schnell an diese Grenzen. Daher ist es wichtig, die verfügbaren Ressourcen möglichst intelligent und produktiv einzusetzen. In diesem Blogposting möchte ich kurz die Hintergründe erläutern, mögliche Verfahren zur Steuerung vorstellen und ihre Vor- und Nachteile aufzeigen.
    Crawling-Budget & Index-Budget
    Auch wenn diese beiden Begriffe inhaltlich eng zusammenhängen, gibt es doch wichtige Unterschiede. Um diese zu verstehen, schaut man sich den schematischen (und vereinfachten) Aufbau einer Internetsuchmaschine an:

    graphic-blog02

    Damit Inhalte einer Domain überhaupt die Chance haben, für einen gesuchten Begriff in die engere Auswahl des Ranking-Algorithmus zu kommen, müssen sie zuerst durch den Crawler gefunden sowie erfasst und schließlich in den Index aufgenommen werden.

    Google hat für das Verhalten des Googlebot einige Annahmen getroffen, die dafür sorgen, dass der Googlebot zwei Ziele erreicht: neue Inhalte schnell zu finden und tief in der Seite versteckte Inhalte zuverlässig auszulesen. In welchem Umfang Google hierbei vorgeht, hängt vom Crawling-Budget der Domain ab. Google hat bislang Vorstöße zur Gleichstellung aller Domains abgewehrt und weist jeder Domain ihre eigenes Crawling-Budget zu. Dieses Crawling-Budget bestimmt maßgeblich, wie häufig der Googlebot die ersten Ebenen einer Domain crawlt und wie tief ein regelmäßigen “Deep-Crawl” der Domain stattfindet.

    Ähnlich sieht es mit dem Index-Budget aus: dieses bestimmt die maximale Anzahl der URLs einer Domain, die in den Google-Index aufgenommen werden. Wichtig ist im Hinterkopf zu behalten, dass nur URLs, die regelmäßig vom Crawler erfasst werden, auch dauerhaft im Index bleiben werden.

    Deine Feinde: Webentwickler, JavaScript und allgemeines Chaos
    In der Theorie könnte die Welt so einfach sein: jedes inhaltlich zusammenhängende Stück Content hat genau eine, logische und sprechende URL. Die URL bleibt für die nächsten Jahrzehnte bestehen. Die Praxis sieht leider oft anders aus: Webentwickler bauen mal eben die dritte Druck-Version des Artikels, der Googlebot lernt wieder etwas JavaScript und erfindet damit komplett neue URLs und nach dem dritten CMS-Relaunch in zwei Jahren ist von dem ursprünglichen URL-Konzept auch nicht mehr viel übrig. Allen Problem gemein ist, dass sie zu einem Effekt führen: Google wird die URLs crawlen und damit Crawling-Budget der Domain verbrauchen. Gerade bei umfangreichen Projekten wird diese Crawling-Power häufig an anderen Stellen fehlen. Das kann dazu führen, dass die Domain nicht die ihr maximal zugestandene Seitenanzahl im Google-Index belegt und somit unterhalb ihres möglichen Longtail-Potentials bleibt.

    Panda- & Duplicate-Content-Schreck: Indexhygiene
    Es sollte mittlerweile deutlich geworden sein, dass eine gezielte Steuerung von Crawling sowie Indexierung einer Domain bei umfangreichen Webseiten nahezu unumgänglich ist. Als Bonus ergeben sich dadurch sogar noch weitere Vorteile. So bemüht Google sich zwar seit Jahren zu beteuern, dass Duplicate-Content für sie überhaupt kein Problem darstelle, die Realität spricht jedoch leider eine andere Sprache. Ordnung und Systematik im Crawling helfen dabei, mögliche interne Duplicate-Content-Probleme früh zu erkennen und gegenzusteuern. Und auch bei einem der pelzigen Schreckensverbreiter können eher wenige, dafür qualitativ hochwertige Inhalte im Index helfen: Google Panda.

    Wähle Deine Waffen: robots.txt, noindex, canonical
    Soweit zur Theorie, jetzt kommt die Praxis: wie halte ich meine Domain sauber? Zum Glück gibt es mittlerweile ein sehr großes und umfangreiches Arsenal an Werkzeugen, um zum Ziel zu kommen. Ich möchte die wichtigsten mit ihren Vor- und Nachteilen kurz vorstellen.

    Robots.txt-Datei
    Anweisungen in der robots.txt-Datei sind das älteste Instrument, um Suchmaschinen am Besuchen von bestimmten Inhalten zu hindern. War der Syntax anfangs noch recht simpel, hat insbesondere Google mittlerweile zahlreiche Erweiterungen implementiert und ermöglicht so die Abdeckung fast aller Fälle. Der Vorteil der robots.txt: der Googlebot wird die so gesperrten Inhalte gar nicht erst besuchen, es fällt also kein Crawling-Budget an. Der Nachteil: wenn Google davon überzeugt ist, dass die Inhalte trotzdem wichtig sind (weil beispielsweise viele externe Links auf genau diese URL zeigen), wird die URL trotzdem in den SERPs angezeigt – nur ohne Titel und Snippet.

    Noindex-Anweisung
    Die Noindex-Anweisung bezieht sich immer auf eine spezifische URL. Sie kann entweder als Meta-Tag im HTML der Seite hinterlegt werden oder aber im HTTP-Header stehen. Letzteres ist insbesondere für andere Dateiformate wie PDF- oder Word-Dokumente interessant. Um die Noindex-Anweisung beachten zu können, muss der Googlebot die URL zuerst einlesen. Dafür wird Crawling-Budget verbraucht, allerdings kein Index-Budget. Noindex ist die einzige zuverlässige Methode um sicherzustellen, dass eine URL unter keinen Umständen in den SERPs erscheint. Dabei bitte darauf achten, dass Google die Anweisung auch lesen kann, die URL also nicht zusätzlich in den robots.txt gesperrt ist.

    Canonical-Hinweis
    Direkt vorneweg: es gibt nur sehr wenige legitime Anwendungsfälle für den Einsatz des Canonical-Hinweis. Schlägt ein Webentwickler den Einsatz vor, liegt das in der Regel daran, dass das eigentliche Problem nicht gelöst werden soll, sondern die Auswirkungen mit dem Canonical-Tag nur abgeschwächt werden. Der Canonical-Tag ist nicht, wie robots.txt und Noindex, eine verbindliche Anweisung an Google, sondern lediglich ein Hinweis unter welcher URLs sich die Inhalte finden lassen. Häufig folgt Google diesem Hinweis, aber natürlich nicht immer. Seiten mit dem Canonical-Tag verbrauchen Crawling-Budget, damit Google den Tag finden kann und sehr wahrscheinlich auch Index-Budget, so dass Google die Inhalte auf der Seite mit anderen Inhalten im Index abgleichen kann. Zum Abschluss: Finger weg vom Canonical-Tag wo es nur geht.

    Monitoring ist Pflicht
    Beim Crawling großer und dynamisch gewachsener Seiten gibt es nur eine Konstante: alle Fehler, die irgendwie passieren könnten, werden definitiv passieren. Daher ist eine regelmäßige Kontrolle aller wichtigen Parameter unerlässlich. Google bietet in den Webmaster-Tools mittlerweile wichtige Unterstützung dabei: Anzahl der gecrawlten und indexierten Seiten sollte ein Pflicht-Indikator sein. Aber auch ein Faible für das Lesen von Serverlogfiles und der gekonnte Umgang mit Shell-Werkzeugen ist hilfreich. Sei mir noch der Hinweis erlaubt, dass auch unsere Toolbox Aufgaben zur Kontrolle übernehmen kann.

    The post Crawling und Indexierung umfangreicher Webseiten appeared first on SISTRIX.

    SISTRIX

  • Monthly Archives: August 2013

  • Watchlist für Indexierte Seiten und PageRank

    August 17, 2013 7:09 pm - Posted by admin Category:SEO + SEM

    Die SISTRIX Toolbox verfügt jetzt über eine Watchlist mit der man individuelle Domains für die tägliche Überwachung ausgewählter Werte aktivieren kann. Suchmaschinenoptimierung – und natürlich der gesamte Bereich „Online-Marketing“ – besteht zu einem großen Teil auch aus Monitoringaufgaben. Einer der wenigen Bereiche die man ohne Qualitätsverluste sehr gut automatisieren kann. Wie die Watchlist dabei unterstützt zeige ich jetzt.

    Schritt für Schritt zum täglichen Monitoring

    Um eine Domain auf die Watchlist zu setzen gibt man diese in den Suchschlitz im SEO-Modul ein und wechselt dann im Menü auf „PageRank“ oder wahlweise auf „Indexierte Seiten“. Unterhalb des Charts befindet sich der Button „Domain jetzt der Watchlist hinzufügen“ und auf diesen klicken wir.

    Domain zur Watchlist hinzufügen

    Domain zur Watchlist hinzufügen

    Anschließend erfolgt noch eine kurze Nachfrage ob man die Domain hinzufügen möchte. Ein weiterer Klick vollendet den Prozess.

    Domain hinzufügen

    PageRank und Indexierte Seiten werden fortan täglich in der SISTRIX Toolbox überwacht. Indexierte Seiten haben über dem Chart einen Tab „Verlauf aktuell“ in dem sich die Daten befinden. Beim PageRank gibt es die Daten im gleichen Chart.

    Watchlist Indexierte Seiten

    Domains können jederzeit wieder von der Watchlist entfernt werden. Hierfür genügt ein Klick auf „Löschen“ in der Watchlist. Diese erreicht man über den gleichen Weg wenn man versucht eine bestehende Domain einzutragen. Der Button trägt dann die Aufschrift „Zur Watchlist“.

    Monitoring optimieren und automatisieren

    Tägliche Werte sollten auch täglich überwacht werden. Diese Aufgabe erledigt man besser mit den SISTRIX Alerts statt mit einer manuellen Abfrage. In den Tutorials gibt es den Eintrag „Alerts in der SISTRIX Toolbox nutzen“. Dieser erklärt wie man solche automatischen Benachrichtigungen einrichtet.

    Alert für die Benachrichtigung zu indexierten Seiten

    Alert für die Benachrichtigung zu indexierten Seiten

    Mit Alerts kann man sich automatisch bei Veränderungen eines Wertes per E-Mail informieren lassen. Konfiguriert werden die Benachrichtigungen nach absoluten und prozentualen Werten. Wie auf dem Screenshot ersichtlich. Dies die Einstellung für einen Alert der bei einer Abweichung von 10% der indexierten Seiten auslöst und den Account-Inhaber per E-Mail benachrichtigt.

    Fazit

    Eine Automatisierung darf meiner Meinung nach immer dann stattfinden, wenn dadurch keine operative Entscheidung aus der Hand- bzw. an eine Software übergeben wird. Somit sparen die Alerts unheimlich viel Zeit weil man nicht selbst in der Toolbox nach diesen Werten recherchieren muss. Die neuerdings tägliche Überwachung erlaubt zeitnahe Reaktionen durch schnelle E-Mail-Benachrichtigungen.

    The post Watchlist für Indexierte Seiten und PageRank appeared first on SISTRIX.

    SISTRIX