• E-commerce Solution

    Umsatz machen… … 24 Stunden am Tag, 365 Tage im Jahr. Die Anzahl der sogenannten Webshops oder eShops auf dem Marktplatz Internet steigt täglich an.

    Read More
  • Link Building

    Während bei der Onpage- oder Onsite-Optimierung einer Webseite vornehmlich die Struktur und der Inhalt optimiert werden, fokussiert man beim Linkaufbau in erster Linie das Umfeld der betreffenden Webseite. Beim Linkaufbau versucht man die Anzahl der auf die eigene Webseite verweisenden …

    Read More
  • Content Management

    Open Source Software aus Überzeugung Ein Tätigkeitsschwerpunkt von hauptsache.net ist die Entwicklung von Lösungen unter Verwendung von Open Source Software.

    Read More
  • Web Development

    Comming soon!

    Read More
  • SEO Consulting

    Wie „denken“ Suchmaschinen? Suchmaschinen arbeiten auf unterschiedliche Art und Weise. 

    Read More

    Monthly Archives: September 2013

  • Google Hummingbird

    September 27, 2013 8:01 am - Posted by admin Category:SEO + SEM

    Google wird morgen 15 Jahre alt. Auf einer Pressekonferenz in der Gründungsgarage hat man diesen symbolischen Tag genutzt, um den neuen Ranking-Algorithmus vorzustellen. Er hört auf den Namen Hummingbird, also Kolibri. Der neue Algorithmus ist seit rund einem Monat live und beeinflusst aktuell rund 90 Prozent der weltweiten Suchanfragen. Laut Aussage von Amit Singhal ist Hummingbird die größte Veränderung seit der Einführung von Google Caffeine. Während Caffeine eine neue Infrastruktur für Crawling und Indexierung großer Datenmengen und Realtime-Informationen war, geht es bei Hummingbird offenbar um den Ranking-Algorithmus selber. Google spricht hier davon, dass alle Teile der Suchmaschine Schritt halten müssen und da war nun anscheinend der Algorithmus an der Reihe.

    Mit Google Hummingbird will Google sowohl auf Query als auch auf URL-Ebene die Konzepte und Aussagen hinter den Inhalten verstehen. Komplexe Suchanfragen sollen besser interpretiert werden und auf dieser Basis sollen treffsicher bessere Ergebnisse ausgewählt werden. Inhaltlich scheint dieser Schritt recht eng mit den Informationen des Google Knowledge Graph verknüpft zu sein. Leider ist Google bei Details und Hintergründen zu Hummingbird aktuell noch sehr zurückhaltend. Ich hoffe, dass sich dies in den nächsten Wochen noch ändert und etwas mehr Informationen an die Öffentlichkeit kommen.

    Hummingbird könnte auch für die Anti-Spam-Abteilung von Matt Cutts eine interessante neue Grundlage zur Spam-Bekämpfung darstellen. So kam in den letzten Monaten schnell der Verdacht auf, dass man außer dem Versand von Linkkauf/Verkaufs-Warnungen über die Webmaster-Tools die Arbeit eingestellt hat – vielleicht ist der Kolibri jetzt schnell und wendig genug, um das Spiel auf neue Ebenen zu hieven.

    The post Google Hummingbird appeared first on SISTRIX.

    SISTRIX

  • Monthly Archives: September 2013

  • Not Provided – Steht das Ende der Referrer-Keywords bevor?

    September 24, 2013 7:25 am - Posted by admin Category:SEO + SEM

    Seit Oktober 2011 gibt es einen Begriff, der den Pulsschlag der meisten SEOs in die Höhe treiben dürfte: Not Provided. Dieses Keyword gibt Google Analytics an, wenn ein Besucher über die verschlüsselte Google-Suche auf die eigene Seite kommt. Die wertvolle Information über den Suchbegriff, den der Nutzer hierfür verwendet hat, ist somit verloren. Waren es bis vor wenigen Wochen nur alle Nutzer, die bei Google angemeldet waren, hat Google jetzt den Schalter umgelegt und liefert die verschlüsselte Google-Version zunehmend für alle Nutzer aus. Searchengineland hat dieses Statement von Google dazu bekommen (übersetzt durch uns):

    Wir haben die SSL-Verschlüsselung für angemeldete Nutzer 2011 und für Chrome-Nutzer Anfang dieses Jahres angeschaltet. Jetzt sind wir dabei, diesen zusätzlichen Schutz für mehr Nutzer, die nicht angemeldet sind, einzusetzen.

    Was diese Aussage in Zahlen ausgedrückt bedeutet, kann man sich bei notprovidedcount.com ansehen. Diese Seite trackt den Anteil der Not-Provided-Referrer für 62 unterschiedliche Domains und stellt eine zusammengefasste Statistik zur Verfügung:

    Not-Provided-Count-Charting-the-rise-of-not-provided-in-Google-Analytics-1-600x324

    Waren es Anfangs noch rund 20 Prozent der Suchreferrer ohne Keyword, so liegen wir aktuell bereits bei fast 74%. Nur noch ein Viertel aller Google-Suchen überträgt damit das Keyword und es ist davon auszugehen, dass dieser Anteil in den kommenden Wochen noch deutlich abnimmt. Die Begründung von Google für diesen Schritt liegt übrigens in Datenschutz und Datensicherheit. Erstaunlich, dass man als Werbetreibender die Keyword-Daten weiterhin erhält

    The post Not Provided – Steht das Ende der Referrer-Keywords bevor? appeared first on SISTRIX.

    SISTRIX

  • Monthly Archives: September 2013

  • Fallstudie Soft 404-Fehler

    September 16, 2013 7:29 pm - Posted by admin Category:SEO + SEM

    Die letzte Fallstudie liegt etwas zurück, doch diese Woche wollen wir wieder einen kurzen Blick auf einen der Verlierer der KW 38/13 im SISTRIX Sichtbarkeitsindex werfen, um anhand eines Beispiels aus der Praxis zu zeigen, wie man in wenigen Minuten die Ursache herausfinden kann.

    Die Domain ran.de hat 63% im Sichtbarkeitsindex verloren, indem sie von 2,57 Punkten auf 0,96 Punkte gefallen ist.

    Sichtbarkeitsverlust der Domain ran.de vom 09.09.13 auf den 16.09.13

    Sichtbarkeitsverlust der Domain ran.de vom 09.09.13 auf den 16.09.13

    Das Chart mit dem Sichtbarkeitsindex zeigt die gesamte Entwicklung des Sportportals ran.de, welches zur ProSieben Sat.1 Sendergruppe gehört.

    Um die Ursache des Absturzes herauszufinden, ist ein Blick auf die am stärksten rankenden Verzeichnisse der Domain oft sehr zielführend. In der neuen Version der SISTRIX Toolbox, welche sich derzeit im Beta-Test befindet und aller Voraussicht nach im Oktober allen Nutzern zur Verfügung steht, ist diese Analyse mit einem Klick zu erreichen.

    Verzeichnisse mit der größten Sichtbarkeit von ran.de

    Verzeichnisse mit der größten Sichtbarkeit von ran.de

    Das Chart mit dem Sichtbarkeitsindex der Top-3 Verzeichnisse zeigt deutlich auf, wo die Ursache zu finden ist.

    Das Verzeichnis www.ran.de/de/, welches einst die größte Sichtbarkeit für die Domain generierte, ist massiv eingebrochen. Dies legt die Vermutung nahe, dass das Verzeichnis nicht mehr existiert oder Google beim crawlen der Inhalte ein Problem hat.

    Ein Blick auf die Ranking-Veränderungen zeigt, dass maßgeblich Keywörter von einem Ranking-Verlust betroffen sind, welche zuvor für Inhalte aus dem Verzeichnis www.ran.de/de/ eine Top-Platzierung in den Suchergebnissen erzielten.

    Ranking-Veränderungen der Domain ran.de. Auffällig ist das Verzeichnis www.ran.de/de/

    Ranking-Veränderungen der Domain ran.de. Auffällig ist das Verzeichnis www.ran.de/de/

    Offenbar hat man sich dazu entschlossen das Verzeichnis www.ran.de/de/ fortan nicht mehr weiterzuführen und hat die entsprechenden Inhalte auf der Seite neu untergeordnet. Der Ranking-Verlust ist dadurch zu erklären, dass eine Vielzahl von Inhalten nicht korrekt auf die jeweils neue URL-Struktur weitergeleitet werden, sondern teils auf die Startseite www.ran.de verweisen.

    Beispiel: Die Domain ran.de rankte vergangene Woche mit dem Keywort [boxen termine] auf #6 und der URL www.ran.de/de/boxen/Index.html in den Suchergebnissen. Ruft man diese URL nun auf, wird man auf die Startseite ran.de weitergeleitet. Aus Sicht von Google handelt es sich hierbei um einen sogenannten Soft 404-Fehler.

    Per Definition bedeutet ein Soft 404-Fehler, dass “der Content der Seite in keinem Zusammenhang zu dem vom Server gesendeten HTTP-Antwortcode steht”. In dem vorliegenden Fall wird die URL www.ran.de/de/boxen/Index.html korrekt per 301-Weiterleitung auf die Startseite www.ran.de umgeleitet. Jedoch wird dies von Google wie ein Soft 404-Fehler behandelt, da der User auf der Startseite keine nützlichen Informationen seiner Suchanfrage betreffend vorfindet.

    Um gute Rankingposition im Zuge eines Relaunches oder bei Veränderung der URL-Struktur nicht zu gefährden ist es daher ratsam, immer auf eine für den User nützliche Weiterleitung der Inhalte zu achten.

    Im Zuge unserer Analyse bemerkten wir, dass anscheinend an dem Problem gearbeitet wird, da nach und nach die Inhalte gemäß der neuen URL-Struktur weitergeleitet werden.

    Bsp. http://www.ran.de/de/fussball/bundesliga/tabelle.html verweist anstatt auf die Startseite nun auf http://www.ran.de/datenbank/fussball/bundesliga/ergebnisse-und-tabelle.

    Sofern die verantwortlichen Kollegen bei ran.de dies konsequent so weiterführen, besteht die Möglichkeit, dass die verlorenen Rankings kommende Woche wieder vorhanden sind.

    Zu guter letzt möchte ich noch einen interessanten Punkt mit euch teilen. Mir ist aufgefallen, dass die Domain ran.de auch für den österreichischen und schweizerischen Suchmarkt rankt.

    ran.de rankt auch mit seinen Inhalten bei Google.at und Google.ch

    ran.de rankt auch mit seinen Inhalten bei Google.at und Google.ch

    Dies macht durchaus Sinn, da in beiden Suchmärkten auch teilweise deutsch gesprochen wird. Verwundert war ich jedoch, als ich im Quellcode von ran.de das hreflang Link-Attribut Markup mit folgendem Inhalt fand:

    • <link rel=”alternate” hreflang=”de-AT” href=”http://www.ran.at” >
    • <link rel=”alternate” hreflang=”de-CH” href=”http://www.ran.ch” >

    Ruft man beide Domains auf, so wird man feststellen, dass ran.at nicht existiert und ran.ch nicht ganz nach einem Sportportal aussieht.

    The post Fallstudie Soft 404-Fehler appeared first on SISTRIX.

    SISTRIX

  • Monthly Archives: September 2013

  • Themenseiten: eine kurze Analyse

    September 4, 2013 7:13 pm - Posted by admin Category:SEO + SEM

    Wären schnelllebige Internet-Inhalte und der organische Google-Index beide bei Facebook, so würde ihr Beziehungsstatus wohl auf „es ist kompliziert“ stehen. Eine Internetsuche wie Google wird erst richtig gut, wenn die Inhalte so lange interessant sind, dass sie Links, soziale Signale und Nutzerverhalten anziehen. Bei Nachrichtenmeldungen ist das naturgemäß schwierig. Google versucht dem entgegenzuwirken, in dem die Indexierung neuer Inhalte seit dem Infrastrukturupdate „Caffeine“ deutlich schneller und flexibler ist sowie bislang unbekannte URLs viel Vertrauen der Hauptdomain zum Start erben. Aber auch Nachrichtenseiten wollen an der Beziehung arbeiten. Das Mittel der Wahl heißt hierfür häufig „Themenseite“.

    themenseiten

    Die Überlegung dahinter: zwar veralten einzelne Meldungen recht schnell, es gibt aber nur eine begrenzte Anzahl von Themen, Personen, Orten und Firmen über die regelmäßig berichtet wird. Wird zu diesen Keywords nun eine zentrale Seite erstellt, die alle Informationen bündelt, so hat Google ausreichend Zeit, seine Liebe für diese Seite zu erkennen und rankt sie weit vorne. Um zu schauen, wie gut das funktioniert und welche Unterschiede es dabei gibt, habe ich die größten Nachrichtenseiten in Deutschland kurz nach solchen Themenseiten überprüft. Hier die erste Auswertung:

    Gut zu sehen, dass Themenseiten kein Geheimtipp mehr sind: fast alle großen Portale setzen auf diese Strategie. Allerdings mit deutlich unterschiedlichem Erfolg. Tragen die Themenseite bei der Süddeutschen zu 43% des Sichtbarkeitsindex der ganzen Domain bei, sind es bei der FAZ nur rund 3 Prozent. Mit 145 Sichtbarkeitspunkten hat Spiegel Online in seinem Themenverzeichnis so viel Sichtbarkeit versammelt, dass dieses Verzeichnis alleine noch in den Top-50 der deutschen Domains vertreten wäre. Um zu sehen, wie gut sich diese Themen-Bereiche im Vergleich zur gesamten Domain schlagen, habe ich diese Tabelle erstellt:

    Hier wird sowohl das durchschnitte Ranking als auch der Prozentsatz der Keywords in den Top-10 bei Google zwischen der gesamten Domain auf der einen Seite und dem Themen-Bereich auf der anderen Seite verglichen. Es zeigt sich eine Zweiteilung der untersuchten Domains. Bei mehr als Zweidrittel der Domains sprechen die Kennzahlen dafür, dass das Themenverzeichnis bei Google besser funktioniert als der Durchschnitt der Seite. So kommt Spiegel Online über die ganze Seite nur bei rund 15 Prozent aller Keywords in den Top-10 – im Themenverzeichnis sind es aber mehr als 30%. Auch bei Bild.de ist eine deutliche Steigerung des Themen-Verzeichnisses im Vergleich zur Gesamtseite auszumachen. Bei Focus Online, Heise und der FAZ sieht es derzeit anders aus: dort schneiden die Themen-Verzeichnisse schlechter ab als die gesamte Seite. Mit meiner Vergangenheit als SEO-Berater komme ich nicht umhin, hier Optimierungspotential zu wittern.

    Zum Abschluss noch kurz etwas zu den Risiken von Themenseiten, auch diese sollten hier nicht verschwiegen werden. Google stellt seit Jahren klar, dass „SERPs-in-SERPs“, also Suchergebnis-Seiten im Googleindex nicht gewünscht sind. Da Themenseiten intern häufig so aufgebaut sind, dass sie im Kern eine interne Suche über die eigenen Artikel zu einem Stichwort sind, besteht die Gefahr bei Google in Missgunst zu fallen. Damit dies nicht geschieht, sollte in die Erstellung und Ausgestaltung dieser Seiten ruhig der ein oder andere Manntag mehr investiert werden, als unbedingt nötig. Auch dann werden es noch die Seiten der Domain sein, die mit dem wenigsten Aufwand die meisten Besucher bringen.

    The post Themenseiten: eine kurze Analyse appeared first on SISTRIX.

    SISTRIX