• E-commerce Solution

    Umsatz machen… … 24 Stunden am Tag, 365 Tage im Jahr. Die Anzahl der sogenannten Webshops oder eShops auf dem Marktplatz Internet steigt täglich an.

    Read More
  • Link Building

    Während bei der Onpage- oder Onsite-Optimierung einer Webseite vornehmlich die Struktur und der Inhalt optimiert werden, fokussiert man beim Linkaufbau in erster Linie das Umfeld der betreffenden Webseite. Beim Linkaufbau versucht man die Anzahl der auf die eigene Webseite verweisenden …

    Read More
  • Content Management

    Open Source Software aus Überzeugung Ein Tätigkeitsschwerpunkt von hauptsache.net ist die Entwicklung von Lösungen unter Verwendung von Open Source Software.

    Read More
  • Web Development

    Comming soon!

    Read More
  • SEO Consulting

    Wie „denken“ Suchmaschinen? Suchmaschinen arbeiten auf unterschiedliche Art und Weise. 

    Read More

    Tag Archives: Warum

  • Warum Google Inhalte mit SSL-Zertifikat bevorzugt (oder auch nicht)

    August 8, 2014 7:17 am - Posted by admin Category:SEO + SEM

    Google hat heute bekannt gegeben, dass die Nutzung eines SSL-Zertifikates ein Ranking-Faktor ist. Inhalte, die über eine verschlüsselte Verbindung (HTTPS) ausgeliefert werden, erhalten durch den Google Algorithmus einen kleinen Bonus gegenüber ihren nicht-verschlüsselten Wettbewerbern.

    In der SEO-Branche wurde bereits lange vermutet, dass die Verschlüsselung ein positives Signal für Google darstellt. Ähnlich wie bei der Nutzung von CDN-Anbietern wird der Aufwand für Einrichtung und Pflege eines SSL-Zertifikates in der Regel nur von Webseitenbetreibern unternommen, die auch entsprechend in hochwertige Inhalte investieren. Diese Korrelation hat Google (jetzt) auch erkannt und nutzt sie für die Sortierung der Ergebnisse.

    Doch wieso hat Google das heute durch den Blogbeitrag öffentlich gemacht? Außer einem Konjunkturprogramm für SSL-Anbieter, bringt dieser Schritt nur Nachteile für die Suchergebnisqualität: die Korrelation zwischen der SSL-Nutzung und guten Inhalten wird in kurzer Zeit deutlich abnehmen und sich vielleicht sogar umkehren („Wieso sollen wir einen 3-Sterne-Text kaufen, wie haben doch das SSL-Zertifikat“). Die öffentliche Bekanntmachung eines konkret benannten, positiven Rankingfaktors ist ein sehr ungewöhnlicher Schritt von Google und in meiner Erinnerung einmalig.

    Google scheint damit also noch andere Interessen zu verfolgen. Wer die Pressemeldungen um Google und Sicherheitsthemen in den letzten Monaten verfolgt hat, wird bemerkt haben, dass Google durch die Veröffentlichung des NSA-Skandals auf dem falschen Fuss erwischt wurde. Spannungen zwischen der NSA und Google werden munter öffentlich ausgetragen und Google unternimmt einige Anstrengungen, um das simple Mitschneiden von Internet-Verkehr zu vermeiden. Vor einigen Tagen hat Google erst bekannt gegeben, nun auch internen (!) GMail-Traffic zu verschlüsseln, sehr gute Sicherheitsexperten kümmern sich um allgemeine Internet-Software und jetzt sorgt Google dafür, dass vermutlich bald ein sehr großer Teil des relevanten Internet-Verkehrs verschlüsselt abläuft.

    Da heute von der BBC über die Bild bis zu den Fachmedien vermutlich jeder über das Thema berichtet hat, dürften sich spätestens morgen alle Agenturen und Inhouse-SEOs mit der Umstellung auf SSL beschäftigen. Gute Gründe dagegen gibt es nun nicht mehr. Bleibt die Frage: gibt es dieses Ranking-Plus für SSL nun wirklich? Wen interessiert’s …

    The post Warum Google Inhalte mit SSL-Zertifikat bevorzugt (oder auch nicht) appeared first on SISTRIX.

    SISTRIX

  • Tag Archives: Warum

  • Warum der Sichtbarkeitsindex kein SEO-Trafficindex sein will

    Mai 17, 2013 1:13 pm - Posted by admin Category:SEO + SEM

    Häufig wird der SISTRIX Sichtbarkeitsindex mit einem SEO-Trafficindex verwechselt. Infolge dessen erscheinen in regelmäßigen Abständen Blogposts mit Beispielen, wie gut oder weniger gut die Entwicklung des Sichtbarkeitsindex mit dem tatsächlichen SEO-Traffic der Domain korreliert. Die meisten dieser Beiträge beruhen auf einem grundlegenden Missverständnis. Denn der SISTRIX Sichtbarkeitsindex ist kein SEO-Trafficindex und will es auch nicht sein. Warum das so ist, möchte ich in diesem Beitrag anhand eines einfachen Beispiels erläutern.

    Was soll der Sichtbarkeitsindex messen?

    Der SISTRIX Sichtbarkeitsindex wurde geschaffen, um die Veränderungen der Rankings einer Domain in den organischen Suchergebnissen von Google in einer einzigen Kennzahl zu verdichten. Mit dem Sichtbarkeitsindex lassen sich so Rankingveränderungen in Summe schnell und übersichtlich erfassen. Bei starken Änderungen oder dem Bruch eines Trends erkennt man auf einen Blick, zu welchem Datum man tiefer in die Datenanalyse einsteigen muss, um die genauen Ursachen zu erforschen.

    Ebenfalls kann man die Werte und die Entwicklung einer Domain mit den Wettbewerber vergleichen und somit wertvolle Informationen für eine Wettbewerbsanalyse gewinnen.

    Detaillierte Informationen wie der SISTRIX Sichtbarkeitsindex berechnet wird und warum man die Verläufe nicht mit den Sichtbarkeitskurven anderer Tools vergleichen kann, findet man in unserem kostenlosen E-Book „SEO-Analysen mit dem SISTRIX Sichtbarkeitsindex“ in Kapitel 2 (Seite 6–16).

    Beispiel „Wetter“ – Vergleich Sichtbarkeitsindex und SEO-Trafficindex

    Mit einem bewusst einfach gehaltenem Beispiel möchte ich zeigen, warum es zu Abweichungen zwischen dem Verlauf des Sichtbarkeitsindex und dem SEO-Traffic kommen kann und warum diese Abweichungen gewollt sind. Als Beispiel nehmen wir das Keyword „Wetter“.

    Die folgende Grafik zeig die Entwicklung des Suchinteresses in Deutschland nach „Wetter“ bei Google Trends.

    Entwicklung Suchinteresse "Wetter" bei Google Trends

    Entwicklung Suchinteresse “Wetter” bei Google Trends

    Google Trends liefert keine Daten über das absolute Suchvolumen, sondern nur über das anteilige und berechnet daraus einen Indexwert. Um das Beispiel möglichst anschaulich zu halten, möchte ich Daten verwenden, die öffentlich zugänglich sind. Daher nehmen wir einfach mal die Daten von Google Trends als Suchvolumen für die letzten 12 Monate und tragen sie in eine Tabelle weiter unten ein.

    Als nächstes betrachten wir als Fallbeispiel eine fiktive Website A. Website A beginnt im September 2012 erfolgreich SEO-Maßnahmen durchzuführen. Die Rankings für „Wetter“ steigen bei Google und damit die angenommene Click-Through-Rate (CTR) in den Suchergebnissen. In den nächsten Monaten steigen die Rankings weiter. Im Januar 2013 haben die Rankings ihren Höchststand erreicht und Website A kann diese Rankings in den folgenden Monaten erfolgreich halten.

    Die angenommenen Werte für die CTR tragen wir ebenfalls in die folgende Tabelle ein. Würde man mit den vorhandenen Daten eine SEO-Trafficindex der Website A für „Wetter“ berechnen wollen, würde man die einzelnen Monatswerte von Google Trends (Spalte A) mit der angenommenen CTR (Spalte C) multiplizieren und somit die Werte in Spalte D erhalten.

    Tabelle Berechnung SEO-Trafficindex und Sichtbarkeitsindex

    Tabelle Berechnung SEO-Trafficindex und Sichtbarkeitsindex

    Für die Berechnung eines Sichtbarkeitsindex soll jedoch der stark schwankende Verlauf des Suchvolumens bereinigt werden, um unverfälscht die Rankingveränderungen als Kennzahl darzustellen. Dazu wird einfach ein Jahresdurchschnitt des Suchvolumens berechnet. In unserem Beispiel ist das der Wert 65,75. Dieser Wert wird dann in allen Monaten als Suchvolumen verwendet (Spalte B). Auf diese Weise können die Rankingveränderungen ceteris paribus, also unter der Voraussetzung, dass alle anderen Variablen gleich bleiben, isoliert als Indexwert dargestellt werden.

    In diesem vereinfachten Beispiel könnte man für den Sichtbarkeitsindex auch ganz auf das Suchvolumen verzichten und nur die angenommene CTR verwenden. Da der Sichtbarkeitsindex jedoch üblicherweise auf Grundlage vieler Keywords berechnet wird, ist ein Wert für das Suchvolumen notwendig, um die einzelnen Keywords untereinander gewichten zu können.

    Den Unterschied der beiden Berechnungsarten von SEO-Trafficindex und Sichtbarkeitsindex veranschaulicht die folgende Grafik. Der SEO-Trafficindex wird sicherlich den tatsächlichen SEO-Traffic besser darstellen, während der Sichtbarkeitsindex viel deutlicher die Rankingveränderungen zeigt.

    Grafik Vergleich SEO-Trafficindex und Sichtbarkeitsindex

    Grafik Vergleich SEO-Trafficindex und Sichtbarkeitsindex

    Grundsätzlich haben beide Kennzahlen je nach Anwendungszweck ihre Berechtigung. Um die Rankingentwicklung gezielt zu steuern, ist der SEO-Trafficindex jedoch ungeeignet. Obwohl die Rankings in unserem Beispiel ab September 2012 steigen, fällt der SEO-Trafficindex bis November 2012. Im März 2013 steigt er stark an, obwohl sich die Rankings nicht mehr verändert haben. Da sich beim SEO-Trafficindex die Effekte des temporären Suchvolumens und der Rankings miteinander vermischen, liefert die Kennzahl keine verlässlichen Signale für die SEO-Steuerung. Die Gefahr wäre groß, dass man die falschen Schlüsse aus den Daten zieht und Fehlentscheidungen trifft.

    Der SISTRIX Sichtbarkeitsindex wurde hingegen exakt für die gezielte Steuerung der Suchmaschinenoptimierung konzipiert und liefert punktgenau zu den richtigen Zeitpunkten aussagekräftige Signale.

    The post Warum der Sichtbarkeitsindex kein SEO-Trafficindex sein will appeared first on SISTRIX.

    SISTRIX

  • Tag Archives: Warum

  • Fallstudie: Warum stürzt stuttgart.de bei Google ab?

    Mai 7, 2013 1:07 am - Posted by admin Category:SEO + SEM

    Das Stadtportal stuttgart.de gehört mit einem Rückgang von 65 Prozent zu den fünf Verlierern der Woche im SISTRIX Sichtbarkeitsindex. Schon in der Vorwoche war die Sichtbarkeit stark eingebrochen und seit dem 15.04.2013 ist der Sichtbarkeitsindex von 14,95 Punkte auf 2,79 Punkte (-81 Prozent) gefallen. Was ist los im Ländle?

    SISTRIX Sichtbarkeitsindex stuttgart.de

    Entwicklung SISTRIX Sichtbarkeitsindex stuttgart.de

    Für ein offizielles und gut verlinktes Stadtportal mit exklusivem Content ist ein solcher Einbruch ungewöhnlich. Eine Google Penalty würde man daher nicht zu allererst als Ursache vermuten. Ein Blick auf die weggefallenen Keywords der letzten Woche zeigt, dass ein größeres Problem vorliegen muss, wenn stuttgart.de für Keywords wie z.B. “museum stuttgart”, “theater stuttgart” und “schule stuttgart” von Platz 1 komplett aus den Top-100 fällt.

    Weggefallene Keywords stuttgart.de

    Auszug aus der Liste der Keywords, bei denen stuttgart.de in der vergangenen Woche aus den Top-100 gefallen ist

    Um die Website zu überprüfen, haben wir stuttgart.de daher mit dem SISTRIX Optimizer überprüft und 10.000 Seiten crawlen lassen. Bei der Optimizer-Auswertung fällt sofort die hohe Anzahl von 519 Serverfehler auf.

    Auszug SISTRIX Optimizer Analyse stuttgart.de

    Auszug SISTRIX Optimizer Analyse stuttgart.de

    In der Detailansicht sehen wir, dass der Server sehr häufig den HTTP-Status-Code 503 (Service Unavailable) ausliefert. Ruft man eine einzelne dieser Seiten manuell auf, ist dieses Problem hingegen nicht zu beobachten. Dieses Verhalten des Servers scheint nur beim Crawlen einer größeren Anzahl Seiten aufzutreten. Es ist zu vermuten, dass auch der Googlebot auf die gleichen Probleme stößt. Das wäre auch eine plausible Erklärung dafür, warum stuttgart.de für seine ureigensten Keywords komplett aus den Rankings verschwindet.

    Serverfehler stuttgart.de

    Auszug aus der Liste der Serverfehler von stuttgart.de

    Suboptimal ist sicherlich auch die Tatsache, dass man alle URLs sowohl mit http als auch mit https aufrufen kann und dass viele URLs zu viele Parameter beinhalten. Diese SEO-Schwächen liegen aber wahrscheinlich schon länger vor und dürften für den aktuellen Absturz nicht verantwortlich sein.

    In der robots.txt von stuttgart.de wird eine lange Liste von Crawlern ausgeschlossen. Das bestätigt die Vermutung, dass die sparsamen Schwaben eventuell auch mit den 503-Statuscodes datenhungrige Crawler sperren wollen, dabei aber nicht die Auswirkungen auf die Google-Rankings beachtet haben.

    Damit hätten wir einen ähnlichen Fall wie bei apple.com vor ein paar Wochen mit dem einzigen Unterschied, dass der Server dort bei intensivem Crawling 403- anstatt 503-Statuscodes ausgeliefert hat. Die Domain apple.com hat sich übrigens inzwischen wieder gut erholt und kratzt aktuell an der 200-Punkte-Linie im Sichtbarkeitsindex.

    The post Fallstudie: Warum stürzt stuttgart.de bei Google ab? appeared first on SISTRIX.

    SISTRIX