• E-commerce Solution

    Umsatz machen… … 24 Stunden am Tag, 365 Tage im Jahr. Die Anzahl der sogenannten Webshops oder eShops auf dem Marktplatz Internet steigt täglich an.

    Read More
  • Link Building

    Während bei der Onpage- oder Onsite-Optimierung einer Webseite vornehmlich die Struktur und der Inhalt optimiert werden, fokussiert man beim Linkaufbau in erster Linie das Umfeld der betreffenden Webseite. Beim Linkaufbau versucht man die Anzahl der auf die eigene Webseite verweisenden …

    Read More
  • Content Management

    Open Source Software aus Überzeugung Ein Tätigkeitsschwerpunkt von hauptsache.net ist die Entwicklung von Lösungen unter Verwendung von Open Source Software.

    Read More
  • Web Development

    Comming soon!

    Read More
  • SEO Consulting

    Wie „denken“ Suchmaschinen? Suchmaschinen arbeiten auf unterschiedliche Art und Weise. 

    Read More
  • Kopfschmerzen beim Domain-Wechsel – viele Ängste sind unbegründet

    Mai 22, 2019 1:07 pm - Posted by admin Category:SEO + SEM

    Ein Website-Umzug ist ein systematischer Prozess. Er scheitert nur, wenn jemand einen Fehler in der Handlungskette macht, wenn dein Kunde sich freiwillig entscheidet, Rankinginhalte zu ignorieren oder wenn Ressourcen bei der Umsetzung fehlen. Mit einfachen Worten: In 99,8 % aller Fälle ist nicht Google für Probleme verantwortlich, es sind die Menschen, die vor den Bildschirmen sitzen.

    Tatsache ist, dass du Millionen von indizierten URLs von einer Subdomain in eine völlig neue Domain aufteilen und umziehen kannst, ohne Verluste zu erleiden – und damit eine der größten Domains bei Google werden kannst:

    Du kannst „adviceguide“ (blau) neu gestalten und auf eine Domain wie „citizensadvice.co.uk“ (rot) umziehen, die ein Zehntel der Sichtbarkeit hatte – und trotzdem sofort erfolgreich sein:

    Wenn dein Domainumzug jedoch nicht wie die beiden obigen Beispiele aussieht, bleib ruhig. Google kann bis zu 3 Monate brauchen, um alle URLs neu zu durchsuchen bzw. zu den vorherigen Ebenen zurückzukehren. Wirf einen Blick auf die Sichtbarkeitslücke zwischen den beiden Graphen in den folgenden Beispielen:

    John Müller von Google beschreibt den Prozess so: „Im Grunde genommen dauert es immer eine Weile bis alle unsere Signale übertragen sind. Die meisten davon können wir sofort transferieren, besonders nach einem Redirect, aber einige von ihnen brauchen eine Weile bis sie vollständig transferiert sind und sie die gleiche Stärke erreichen oder auf der neuen Domain etwa so stark sind wie auf der alten“ (*1).

    Was auch bedeutet, dass, wenn du nach 3 Monaten keine vollständige Übertragung siehst, durchaus in Panik geraten kannst!

    Warum verlieren Domains auch nach einem technisch perfekten Umzug Traffic?

    In Deutschland werden die Wörter „Relaunch“ und „Umzug“ verwendet, um zwei verschiedene Arten von Umzügen zu definieren. Migration ist der Oberbegriff im Englischen, Französischen, Spanischen und Italienischen. Und zwar für alle Arten von Umzügen. Tatsächlich erklärte John Müller 2016 auf der SMX in München, dass es 6 verschiedene Arten von „Migrationen“ gibt: Neugestaltung, Umstrukturierung, Sicherung, Umzug, Verschieben & Umstrukturieren, Zusammenführen und Aufteilen.

    Unabhängig von der Art eines Umzugs, gibt es fünf Dinge, die es zu erklären gilt. SEOs suchen oft bei Google nach einer Antwort, wenn etwas schief geht, aber in all diesen Fällen ist es nicht die Schuld von Google.

    1. Zu viele Veränderungen, die gleichzeitig umgesetzt werden

    Die Projektgröße, die Brand, die Expertise, Autorität und Vertrauenswürdigkeit (EAT) spielen keine Rolle; du verlierst dein Ranking bei Google für einen langen Zeitraum, wenn du auf eine neue Domain wechselst und gleichzeitig die Architektur/Struktur der Website änderst.

    Nach dem dritten Monat wird es sehr klar sein, dass es eine Weile länger (vielleicht Jahre) dauern kann, bis man zum vorherigen Niveau zurückkehrt.

    Unsere Empfehlung: Mach den Schritt nicht zu kompliziert für Google, indem du Änderungen an der Seitenstruktur hinzufügst. Wechsle zuerst zum neuen Domainnamen und warte auf eine Rückkehr zu den vorherigen Rankings. Ändere erst etwas, nachdem Google alle Signale an die neue Domain weitergeleitet hat.

    2. Domains können krank sein

    Im Jahr 2011 hatte google.com einen PageRank von 9 Punkten; das entspricht der gleichen Punktzahl wie eine der größten Link-Farmen im Web. Mister Wong war eine Domain, die zu diesem Zeitpunkt 15 Mal größer war als Facebook. Diese Domain startete 2006 und hatte 500.000 regelmäßige Nutzer in Deutschland, Frankreich, USA, Großbritannien, Spanien, China und Russland.

    Es wurde viel Geld verdient, jedenfalls bis Google 2010 dem Treiben durch mehrere manuelle Maßnahmen ein Ende setzte. Noch bis 2016 gab es erfolglose Versuche, neue Geschäftsmodelle auf dieser Domain zu entwickeln, aber nichts, was auf dieser Domain gehostet wurde, war je erfolgreich

    Nach dem Konkurs von Mister Wong im Jahr 2016 wurde die Domain für 2.500 € verkauft. Zu viel Geld, denn nichts, was darauf übertragen wird, wird funktionieren.

    Egal wie viele Requests du an Google sendest, nach 3 oder mehr manuellen Aktionen kannst du eine solche Domain als tot betrachten. Du könntest die gesamte Wikipedia dorthin umziehen und sie würde keine Rankings generieren.

    Trotzdem gibt es viele Empfehlungen für den Kauf von Domains, die einfach auf der Anzahl der eingehenden Links basieren. Das bringt uns zu Victoria Travel Service Ltd., die 1 Million US-Dollar für den Kauf einer Domain ausgegeben hat, welche jedoch mehrfach bestraft und gefiltert wurde:

    Es wird noch schlimmer! QuinStreet Inc. zahlte 49.700.000 $ für CarInsurance.com und 35.600.00 $ für Insurance.com (einschließlich zuvor bestrafter Inhalte).

    In tote Domains zu investieren, ist von Anfang an zum Scheitern verurteilt.

    3. Fehler beim Branding

    Im Jahr 2009 entschied sich Pepsi, einige seiner Produktangebote neu zu vermarkten, darunter ihr eigenes Logo, Mountain Dew und Tropicana-Orangensaft.

    Image Source

    Nachdem der Umsatz um 20 % einbrach und 130 Millionen Dollar verloren gingen, wurde die Verpackung von Tropicana wieder in den Originalzustand zurückversetzt. Denke darüber nach – die gleichen Verbraucher nutzen Google.

    Die spanische Marke „SecondHand“ (SegundaMano) wurde 1978 gegründet und 2016 in „Vibbo“ umbenannt. Der Umzug einer der größten Domains in Spanien war technisch gut, aber „Vibbo“ ist ein Unsinn, der im Spanischen schwer zu bcuhstabieren ist. Auch nach 3 Jahren kann nicht an die alte Sichtbarkeit angeknüpft werden.

    Wir haben den Wechsel von Patient.co.uk zu Patient.net bereits ausführlich behandelt. Er war technisch gut umgesetzt, aber wie bei Tropicana bedeutet die Herstellung von etwas „Modernem“ nicht, dass es gut angenommen wird. Über die Tradition gibt es etwas zu sagen!

    Man kann nur hoffen, dass sie so intelligent sind wie Pepsi. Eine Änderung rückgängig zu machen, ist immer eine Option.

    4. Der Trend ist dein Freund

    Ein Umzug bedeutet harte Arbeit, um etwas Neues, etwas Besseres, etwas Bemerkenswertes zu schaffen. Leider können Umzüge in vielen Fällen, in denen die Website bereits Qualitätsprobleme hatte, diese nicht reten. Was nach dem Relaunch oder Umzug folgt, ist genau der gleiche Trend.

    Im Jahr 2016 wechselte der FC Bayern München zu fcbayern.com, um das internationale Web zu rocken, aber die Grafik zeigt, dass die neue Domain nach Googles „dreimonatiger Gedenkminute“ ziemlich genau dem Trend der alten Domain gefolgt ist.

    Hier ist noch ein gutes Beispiel. Die alte Domain sah gesund und stark aus, aber nach der dreimonatigen Übergangszeit folgte sie dem neuen Trend, der sich bereits vor dem Umzug entwickelte.

    Ende 2015 suchte Paul Ingraham Rat. Er hatte seine Domain saveyourself.ca auf painscience.com migriert. Aus technischer Sicht war alles in Ordnung, aber die neue Domain folgte nur dem bisherigen Trend:

    Die einzige Lösung, die uns bleibt, ist die Verbesserung der Qualität eines Produkts oder der Dienstleistung. Wirf einen Blick auf Paulus‘ Domain:

    5. Das SEO-Tool

    Freunde, SEOs, Unternehmen, Universitäten usw. senden uns regelmäßig E-Mails mit der Frage, warum die Sichtbarkeitscharts auf verschiedenen SEO-Tools unterschiedlich aussehen. Tatsächlich zeigen ihnen die Sichtbarkeitscharts von zwei der beliebtesten SEO-Tools alles andere als Sichtbarkeit. Sie schätzen das Traffic-Niveau und messen nicht deine Rankings in Google.

    Am 22. Mai 2018 berichtete guardian.com, dass Tesco seine spezielle Einzelhandels-Website Tesco Direct in einem überraschenden Zug, der 500 Arbeitsplätze gefährdete, eingestellt hat.

    In der zweiten Juliwoche 2018 war klar, dass tesco.com/direct dicht gemacht hat.

    In nur einer Woche verlor tesco.com 70 % seiner Sichtbarkeit bei Google. Diese wichtige Änderung und Geschäftsentscheidung wird immer noch nicht von zwei der beliebtesten SEO-Tools angezeigt. Noch heute, 10 Monate später!

    Ein weiteres Beispiel: Am 21. März 2019 ging die deutsche Wikipedia, die größte jemals in der Google-Suche existierende Domain, aus Protest gegen das EU-Urheberrecht offline:

    Für eine so riesige Domain reichte ein Tag nicht aus, um sie vollständig aus Google zu entfernen, aber 300.000 Keywords und 1.680 Sichtbarkeitspunkte waren weg und kein anderes Tool hat das gemessen.

    1.680 Punkte sind viel. Stell dir vor, ebay.de, spiegel.de, computerbild.de, tripadvisor.de und focus.de wären alle gleichzeitig aus Google verschwunden und kein Tool würde es zeigen.

    SEO-Tools müssen diese Fakten widerspiegeln. Wenn eine Migration schief geht, kannst du das mit anderen Tools nicht sehen und ausbessern. Sie könnten dich sogar dazu bringen, mehr Fehler zu machen.

    Rufen wir uns ein hilfreiches Zitat in Erinnerung: “Knowing what to measure and how to measure it makes a complicated world much less so”- Steven D. Levitt.

    Wir hoffen, dass dir der Artikel gefallen hat.

    PS: Sommerzeit ist Umzugszeit, ich möchte dir folgende Artikel empfehlen:

    (*1) https://www.youtube.com/watch?time_continue=231&v=TTTgOrq70kE

    The post Kopfschmerzen beim Domain-Wechsel – viele Ängste sind unbegründet appeared first on SISTRIX.

    SISTRIX

  • EU-Urheberrechtsreform – Ziele, Folgen und Chancen

    Mai 21, 2019 7:07 pm - Posted by admin Category:SEO + SEM

    Der Digitalexperte aus ARD und WDR Jörg Schieb zeigt auf, was im Zuge der umstrittenen EU-Richtlinie wirklich auf uns zukommt. Was spricht für die EU-Urheberrechtsreform und was gegen sie?

    The post EU-Urheberrechtsreform – Ziele, Folgen und Chancen appeared first on SISTRIX.

    SISTRIX

  • Google Search Rater: Faktor Mensch in den SERPs

    Mai 9, 2019 7:07 pm - Posted by admin Category:SEO + SEM

    Seit jeher lässt Google die Qualität seiner Suchergebnisse durch sogenannte Google Search Rater für interne Zwecke bewerten. Nun gibt es Hinweise, dass diese Search Rater auch konkret Einfluss auf die SERPs nehmen.

    Wenn es um die genau Rolle der Google Search Rater geht, ist Google eher zurückhaltend. Zwar sind die Search Quality Rater Guidelines, eine Art Arbeitsanweisung für diese Personen seit ein paar Jahren auch öffentlich verfügbar – welche genauen Auswirkungen ihre Arbeit aber hat, ist bislang ungeklärt.

    Auf einer Seite, die Google im Rahmen der I/O-Konferenz veröffentlicht hat und bei der es eigentlich eher um Google News gibt, finden sich nun aber mehr Informationen. So schreibt Google dort:

    Many of our approaches build on the ranking systems used by Google Search.

    Weiter unten unter dem Punkt “Authoritativeness” dann:

    To do this, our systems are designed to identify signals that can help determine which pages demonstrate expertise, authoritativeness and trustworthiness on a given topic, based on feedback from Search raters.

    Als SEO wird bei der Aneinanderreihung von “Expertise, Authoritativeness and Trustworthiness” schnell die Abkürzung E-A-T und ein Bezug zu den letzten Google-Core-Updates herstellt. Allgemeine Meinung ist, dass Google bei diesen Updates erhöhte Aufmerksamkeit auf diese drei Themen gelegt hat.

    Durch die oben zitierte Bestätigung wird nun auch klar, dass die Google Search Rater hierbei einen maßgeblichen Einfluss haben. Von Google beschäftigte Menschen und nicht Algorithmen sind die Grundlage zur Identifizierung und Einschätzung von Webseiten. Google wird, wie vermutet, diese Erkenntnisse durch einen Machine-Learning-Ansatz auf viele Webseiten übertragen – den ersten Schritt und die Definition der Ursprungsdaten stammt aber von Menschen.

    The post Google Search Rater: Faktor Mensch in den SERPs appeared first on SISTRIX.

    SISTRIX

  • Core-Updates: Was du jetzt und in Zukunft unternehmen kannst

    1:13 am - Posted by admin Category:SEO + SEM

    Analyse: Welche Auswirkungen hatten die letzten großen Google-Updates und welche langfristigen Ziele verfolgt die Suchmaschine? Lösungsansätze für zukünftige Suchmaschinenoptimierung.

    The post Core-Updates: Was du jetzt und in Zukunft unternehmen kannst appeared first on SISTRIX.

    SISTRIX

  • Liebe deine Webseite: Plädoyer für mehr Unabhängigkeit

    Mai 1, 2019 1:07 pm - Posted by admin Category:SEO + SEM

    Die großen Internet-Konzerne Google, Amazon, Facebook und Apple sind die Herrscher über das (westliche) Internet. Wir sind nur noch Zuschauer. Wieso deine eigene Webseite gerade deswegen mehr Aufmerksamkeit erhalten sollte, zeigt dieser Beitrag.

    Peter Thiel, Silicon Valley-Unternehmer deutscher Herkunft, Gründer von PayPal und Palantir sowie früher Facebook-Investor hat in seinem Buch “Zero to One” eine zentrale Aussage gemacht:

    Monopoly is the condition of every successful business.

    Zero to One, Peter Thiel 

    Aus Unternehmenssicht haben Monopole einen gravierenden Vorteil: fehlender Wettbewerb führt zu dauerhaft hohen Gewinnen. Für die GAFA-Konzerne ist dabei zentral: die Kundenbeziehung muss bei ihnen liegen. Nur so kann der Zugang zu diesen Kunden dauerhaft und immer wieder erneut verkauft werden.

    Um die Kundenbeziehung zu behalten, müssen sie Herrscher über das Spielfeld sein: Nutzer bewegen sich dabei im Firmen-Universum ohne es zu verlassen. Gerade bei Apple, aber auch bei Amazon ist das deutlich zu erkennen. Bei Käufen von Marketplace-Händlern oder dem Download von Iphone-Apps über den Apple-Store gibt es keinen Kontakt zu den Anbietern direkt, sondern lediglich zu Amazon und Apple.

    Der Facebook-Konzern hat aus seinem sterbenden sozialen Netzwerk Facebook gelernt und bei Instagram auf Möglichkeiten, der Plattform zu entfliehen, fast vollständig verzichtet. Nur Google hat es naturgemäß schwer: als Suchmaschine ist die Empfehlung passender Webseiten nun mal inhärent im Geschäftsmodell enthalten. Aber auch hier gibt es Mittel und Wege: ein eigener Browser oder HTML-”Erweiterungen” wie AMP sind Werkzeuge, um das eigentlich offene Internet ein Stück weit zu Googles eigenem Spielfeld zu wandeln.

    Auf absehbare Zeit wird sich an diesem Status Quo nichts ändern: den vier großen GAFA-Konzernen gehört faktisch das (westliche) Internet. Regulierungsbemühungen der EU-Kommission kommen viele Jahre zu spät und es werden noch Jahre vergehen, bis (wenn überhaupt!) Auswirkungen spürbar werden. Eine mögliche Besteuerung auf EU-Ebene ist Zukunftsmusik und der Kampf von Interessenvertretungen wie der VG Wort auf Basis der neuen Urheberrechtsreform ist zwar unterhaltsam, wird aber keinen Erfolg haben. Als Unternehmer gilt daher: machen wir das Beste aus den gegebenen Umständen.

    Wie geht man damit nun um? Meine Empfehlung: schlage die GAFA-Konzerne mit ihren eigenen Waffen. Übernimm die direkte Beziehungen zu deinen Kunden, Interessenten und Webseitenbesuchern und führe sie über nicht monopolisierbare Wege fort. Davon gibt es noch zwei Relevante: deine Webseite und die direkte E-Mail-Kommunikation.

    Liebe deine Webseite

    Deine Webseite muss im Zentrum aller deiner Online-Aktivitäten stehen. Nur über sie hast du dauerhaft die uneingeschränkte Kontrolle. Bildlich gesprochen, ist deine Webseite dein Haus auf deinem eigenen Grundstück während du bei Aktivitäten auf den großen Plattformen nur auf zeitlich gemietetem Grund baust, bei dem sich die Bedingungen jederzeit und kurzfristig ändern können.

    Natürlich ist eine eigene, erfolgreiche Webseite nicht trivial zu erstellen und betreiben. Die Erwartungen sind auf vielen Ebenen hoch und wachsen weiter: rasante Ladezeiten, Unterstützung aller Devices, ansprechendes Design, das sich trotzdem abhebt, einfache Nutzbarkeit, perfekte Inhalte sowohl als Text, Bild und auch Video und vieles mehr. Die Messlatte der Besucher orientiert sich an den sehr guten Produkten der GAFA-Unternehmen. Hier mithalten zu können, ist nicht einfach aber machbar – und ehrlicherweise auch ohne Alternative.

    Um diese Herausforderung erfolgreich zu meistern, darf deine Webseite nicht einfach nur ein weiteres Projekt sein. Dir darf es nicht egal sein, wenn Erstbesucher erst das Datenschutz-Popup, dann die Browser-Notification-Erinnerung und zum Schluss eine Newsletter-Einladung wegklicken müssen, bevor sie auch nur 3 Zeilen Inhalt sehen. Eine verwirrende Navigation muss bei dir körperliches Unbehagen hervorrufen, so dass du sie schnellstmöglich gegen eine nutzerzentrierte Variante austauschst. Deine Webseite ist der Kanal, der mit Abstand die meiste Aufmerksamkeit benötigt und auch erhalten muss.

    Dein Umgang mit den GAFA-Plattformen muss spiegelbildlich zu ihrem Umgang mit dir erfolgen: nutze ihren Stärken und Besucherströme, wo es für dich und dein Geschäft Sinn ergibt. Verlasse dich jedoch nicht auf sie und sei darauf vorbereitet, dass die Spielregeln morgen vollständig anders aussehen können. Investiere keinen vermeidbaren Aufwand in ihre Plattformen, sondern nutze die Zeit für deine eigene Webseite.

    Fazit

    Es ist nicht schönzureden: die GAFA-Konzerne beherrschen das Internet. Diese Situation wird sich auch kurzfristig nicht ändern. Gehe pragmatisch damit um und nutze die Plattformen, wo sie Besucher auf deine zentrale Anlaufstelle senden: deine eigene Webseite. Investiere viel Zeit, Energie und Liebe in deine eigene Webseite. Sie ist deine Anlage, die diese Plattformen hoffentlich überdauern wird.

    The post Liebe deine Webseite: Plädoyer für mehr Unabhängigkeit appeared first on SISTRIX.

    SISTRIX

  • Brauchen wir einen öffentlichen Web-Index?

    April 22, 2019 1:08 pm - Posted by admin Category:SEO + SEM

    Fast keine Woche vergeht derzeit, ohne dass Googles Umgang mit der eigenen Marktmacht beklagt wird. Dirk Lewandowski, Professor an der Haw Hamburg, hat nun einen öffentlichen Web-Index als Alternative zu Google vorgeschlagen. Kann das funktionieren?

    Google selbst ist aktuell häufiger Gegenstand der Berichterstattung in Google News als es der Suchmaschine recht sein dürfte. Alleine in den letzten Tagen ging es zum Beispiel darum, dass die VG Media auf Basis des neuen Leistungsschutzrechtes schon mal 1,24 Milliarden Euro von Google fordert, Google auf Druck der EU-Kommission in Android bald Alternativen zur Google Suche und zu Chrome vorschlagen muss und auch die Klage über 500 Millionen Euro von Idealo ist noch recht frisch.

    Vor diesem Hintergrund, hat Dirk Lewandowski, Professor für Information Research & Information Retrieval an der Haw Hamburg und einer der “Suchmaschinen Professoren” Europas den Vorschlag (PDF-Version) gemacht, die einzelnen Teile einer Suchmaschine getrennt zu betreiben:

    A proposal for building an index of the Web that separates the infrastructure part of the search engine – the index – from the services part that will form the basis for myriad search engines and other services utilizing Web data on top of a public infrastructure open to everyone.

    https://arxiv.org/abs/1903.03846

    Als Kernproblem sieht er, dass bei der Gestaltung eines Ranking-Algorithmus auch immer das Weltbild der Ersteller zum Tragen kommt – und damit wirklich neutrale und unvoreingenommene Ergebnisse nicht gegeben sind. Dies werde durch über 90 Prozent Marktanteil von Google in Europa zu einem Problem.

    Die Lösung: Trennung von Crawling/Index sowie dem Frontend/Algorithmus von Suchmaschinen. Auf Basis einer öffentlichen Infrastruktur sollen eine ganze Reihe von unterschiedlichen Suchanbietern entstehen und dringend notwendige Vielfalt ermöglichen.

    Kann das klappen? Ich bin eher skeptisch und zwar aus diesen Gründen:

    Google gehört der ganze “Stack”

    Google besitzt (im wahrsten Sinne des Wortes) mittlerweile einen großen Teil des Internets. Es geht ganz unten los: Googles öffentlicher und kostenloser DNS-Server ist der meistgenutzte DNS-Server, mit Android gehört Google das mit Abstand erfolgreichste Smartphone-OS, die Marktanteile von Chrome auf dem Desktop erreichen regelmäßig neue Höchststände, neben Google Analytics gibt es keine Wettbewerber mit ernstzunehmendem Marktanteil. Ich könnte diese Liste fast endlos fortführen. Und wenn Google das notwendige Puzzlestück noch nicht gehört, dann wird es – wie bei den Search Deals mit Apple und Firefox – dazu gekauft.

    Suche im ML-Zeitalter: die Menge machts

    Ob Daten nun das neue Öl oder Gold sind, ist noch nicht abschließend geklärt (nur, dass ich beides nicht mehr hören kann). Klar ist aber: im Kern ist die Aussage richtig. Im Zeitalter von Machine Learning sind Hardware und Software weitgehend öffentlich. Den Unterschied zwischen einem guten und einem schlechten Ergebnis machen die Trainingsdaten, die man für die Erstellung des Algorithmus nutzt. Und hier hat Google einen riesigen Vorsprung: zum einen hat Google, wie oben beschrieben, Zugriff auf weit mehr als nur reine Suchdaten, zum anderen ist das Suchvolumen auch in Longtail-Bereichen bei Google groß genug, um zu sinnvollen Ergebnissen zu kommen. Lewandowski schlägt zwar eine Rückspielung von Nutzerdaten der einzelnen Suchmaschinen in das Gesamtsystem vor. Ob das die strukturellen Nachteile aber ausgleichen kann, wage ich zu bezweifeln.

    Wechsel ist schwer

    Es gibt Alternativen zu Google. Sogar sehr viele und, objektiv gemessen, auch sehr gute Alternativen. Und trotzdem wollen fast alle die Google Suchergebnisse. Das über die Jahre gewachsene Vertrauen in die Marke Google ist im Suchmarkt so groß, dass es schwer ist, Nutzer von einem Wechsel zu überzeugen. Nutzer wollen lieber Bing-Ergebnisse im Google-Layout als Google-Treffer im Bing-Design. Eine erfolgreiche Alternative muss deutlich besser als Google sein, um einen Wechsel auf eine neue Suchmaschine anzustoßen.

    Fazit

    Jeder Impuls für mehr Vielfalt in der europäischen Suchmaschinenlandschaft ist hilfreich und willkommen. Die Idee, Crawler und Index als eine Art öffentliche Grundversorgung in Europa bereitzustellen und auf diese Weise für mehr Wettbewerb zu sorgen, ist aus akademischer Sicht nachvollziehbar. Ich bin allerdings skeptisch, dass es im realen Internet funktionieren wird. Aber die EU hat schon viel Kram finanziert, wer weiss und einen Versuch ist es wert.

    The post Brauchen wir einen öffentlichen Web-Index? appeared first on SISTRIX.

    SISTRIX

  • Google: Idealo klagt auf 500 Millionen Euro, EU-Wettbewerbskommissarin stellt Zerschlagung in den Raum

    April 16, 2019 1:09 pm - Posted by admin Category:SEO + SEM

    Auch außerhalb der SERPs gibt es aktuell Wirbel bei Google: der Preisvergleich Idealo hat Google auf mindestens 500 Millionen Euro verklagt und die EU-Wettbewerbskommissarin überlegt in einem Gespräch mit der F.A.Z. offen, Google den Betrieb eigener vertikaler Angebote zu verbieten.

    Idealo, der erfolgreichste deutsche Preisvergleich hat Google vor dem Landgericht Berlin auf rund 500 Millionen Euro Schadensersatz verklagt. Die Klage basiert auf der EU-Entscheidung aus dem Jahr 2017, in der die EU-Kommission festgestellt hat, dass Google seine marktbeherrschende Stellung missbraucht. Google hat gegen diese Entscheidung Berufung eingelegt. Es ist davon auszugehen, dass in den nächsten Jahren hauptsächlich Juristen an diesem Thema verdienen und eine finale Entscheidung in eher ferner Zukunft liegt.

    Die EU-Wettbewerbskommissarin Margrethe Vestager hat in einem Gespräch mit der FAZ verschiedene Optionen in den Raum gestellt, um den von der Kommission so gesehenen Machtmissbrauch von Internet-Konzernen wie Google oder Amazon zu verhindern. Eine Option wäre, Google den Betrieb eigener vertikaler Produkte auf ihrer Plattform zu verbieten. Google dürfte damit keine Services wie Shopping oder Maps anbieten. Eine andere Option wäre, Internet-Konzerne dazu zu verpflichten, die zugrundeliegenden Daten offenlegen zu müssen, um Wettbewerb damit zu ermöglichen.

    Beide Ereignisse zeigen: das Europa-Geschäft wird für Google (und Amazon/Facebook) künftig ungemütlicher. Auch wenn die Ideen der EU-Kommission aus Sicht von Insidern häufig leicht unbeholfen wirken, ist die Idee dahinter nachvollziehbar: ohne geänderte, externe Rahmenbedingungen wird es in Europa auf absehbare Zeit keinen echten Wettbewerb geben. Als SEOs können wir uns also darauf einstellen, dass mit der EU-Kommission vermutlich bald ein weiterer und eher ungewohnter Ranking-Faktor in den Ring steigt.

    The post Google: Idealo klagt auf 500 Millionen Euro, EU-Wettbewerbskommissarin stellt Zerschlagung in den Raum appeared first on SISTRIX.

    SISTRIX

  • International SEO

    März 29, 2019 1:10 pm - Posted by admin Category:SEO + SEM

    Dominik Schwarz hat mit hometogo.de eine „deutsche” Blaupause in der Internationalisierung einer Domain geschaffen

    The post International SEO appeared first on SISTRIX.

    SISTRIX

  • Core-Update im März 2019: Wie groß war es wirklich?

    März 28, 2019 7:22 pm - Posted by admin Category:SEO + SEM

    SEOs und Google haben eine unterschiedliche Wahrnehmung von Updates im Suchalgorithmus. Während Google – ohne Rücksicht auf Domains – die Suchergebnisse stets verbessert, arbeiten SEOs daran, ihre Webseiten für relevante Suchanfragen zu optimieren. Wenn Google dann Änderungen am Algorithmus vornimmt, betrifft dies augenscheinlich immer eine Vielzahl an Webseiten und damit auch eine Vielzahl an SEOs.

    Panda und Penguin sind Paradebeispiele dafür, dass die Auswirkungen auf Unternehmen und SEOs – im Vergleich zu den tatsächlichen Änderungen in den SERPs – dramatisch waren. Während das Panda-Update drei Mal größer als Penguin war, bei dem nur 3 % der SERPs betroffen waren, kann das Ausmaß von Core-Updates dreifach größer sein.

    Wie groß war das Core-Update im März 2019 wirklich?

    Nun, Google selbst sagt, dass das March 2019 Core Update bei weitem nicht das größte ist. Was das angeht, kommt es jedoch immer auf die eigene Perspektive an. Google hat naturgemäß eine andere Sichtweise als Webseitenbetreiber und SEOs, die nunmehr eine anstrengende Woche hinter sich haben.

    Um eine Vorstellung davon zu bekommen, wie groß das März-Core-Update 2019 war, müssen wir es aus „unserer” SEO-Perspektive vergleichbar machen. Dafür haben wir 24.000 Datenpunkte analysiert: gewinnende und verlierende Webseiten, die in den letzten 12 Monaten mindestens einmal von den 6 Kernalgorithmus-Updates betroffen waren – in fünf Ländern: Deutschland, Großbritannien, Vereinigte Staaten, Spanien und Italien.

    In der folgenden Grafik sehen wir die Lageparameter Mittelwert und Median der Sichtbarkeitsveränderungen für genau diese Webseiten:

    Das Chart macht eines deutlich: Im Vergleich zu den 5 anderen Core-Updates des vergangenen Jahres, sieht es derzeit so aus, als wird das März-Update größer als alle anderen werden – mit Ausnhame des Medic-Updates im August 2018. Interessant wird es, wenn wir uns bewusst machen, dass das aktuelle März-Update noch nicht abschließend ausgerollt zu sein scheint.

    Die Analyse der Daten führte uns zu einer weiteren, sehr interessanten Entdeckung: Viele der jetzt betroffenen Domains wurden mehr als einmal in den vergangenen 12 Monaten von Änderungen am Kernalgorithmus getroffen; bis zu fünf, teilweise sogar sechs Mal.

    Die üblichen Verdächtigen

    Während 40 % der Webseiten in den letzten 12 Monaten ein Mal signifikant von einem Google-Update getroffen wurden, waren 60 % der Domains mindestens zwei oder mehrere Male von einer Anpassung des Core-Updates beeinflusst. Über ein Viertel der Domains aus unserer Stichprobe waren insgesamt sogar drei Mal oder öfter betroffen.

    Das heißt, Google hält diese 60 % nicht für die besten Inhalte in den Suchergebnissen. Es gibt jedoch keine klare Regel, die wir erkennen konnten: Sichtbarkeitszugewinne folgen nicht immer zwingend auf Sichtbarkeitsverluste, umgekehrt auch nicht. Eines ist aber sicher: Google versucht, ein Problem zu lösen, das alle diese Domains gemeinsam haben.

    Was aber niemand sagt: Es gibt viele Domains, die nie auf ein Google-Update reagieren – jedenfalls nicht in einer nennenswerten Größenordnung. Solche Webseiten, die viele Jahre hinweg konstant und stabil waren, dienen als Best-Practice-Beispiele für die Zukunft.

    Dauerhaft stabile Webseiten

    Wir haben uns fünf Sektoren angeschaut und Webseiten ausgwählt, die den Kernupdates „zu trotzen” scheinen.

    Automobilbranche

    Healtcare & Beauty

    Ein schwieriger Sektor: Your-Money-Your-Life-Seiten stehen unter besonderer Beobachtung und es war für uns nicht einfach, eine geeignetes Beispiel einer bekannten Marke zu finden. Die folgende Webseite ist nicht die bekannteste der Branche, aber eine der wenigen, denen die Updates nichts ausmachten:

    Telekommunikation

    Abseits der großen und bekannten Marken, sticht teltarif.de heraus:

    Tourismus & Reisen

    Die Tourismusbranche ist weitgehend auf den E-Commerce für Urlaubsbuchungen ausgerichtet. Hometogo ist ein großartiges Beispiel, das wir kürzlich analysiert haben und auch für diesen Blogbeitrag nutzen:

    Finanzen

    Finanz-Webseiten zählen gleichermaßen zu den sogenannten YMYL-Sites; ensprechend regelmäßige Änderungen in den SERPs können also vorausgesetzt werden. Das Beispiel Equifax hat sich im Vereinigten Königreich stets behauptet und war von Kernupdates nicht wirklich betroffen:

    Fazit

    Machen wir uns eines klar: Wenn Google sagt, dass kein „großes” Update ausgespielt wurde, dann sagen sie das aus ihrer Perspektive, die auf eine Verbesserung der Suchergebnisse abzielt. Dieser Standpunkt unterscheidet sich grundlegend von der Perspektive der Webseitenbetreiber und SEOs.

    Das jüngste Core-Update hat gezeigt, dass einige Domains hart getroffen wurden. Wir haben aber auch gesehen, dass sich das aktuelle Update über einen längeren Zeitraum auswirkt, weshalb es wichtig ist, die Sichtbarkeitsentwicklung regelmäßig verfolgen zu können.

    Unsere Daten haben Websites hervorgebracht, die sich stets „am Limit” bewegen und deswegen regelmäßig von Änderungen an Googles Kernalgorithmus betroffen sind:

    25 % der hier analysierten Domains wurden in den letzten 12 Monaten drei Mal oder öfter von den Core-Updates getroffen.

    Klar ist, dass ein Update immer für Wirbel sorgt. Aber wichtiger als sich durch SEO-Turbulenzen zu manövrieren ist es, von anderen Webseiten zu lernen, denen Updates im Kernalgorithmus nichts ausmachen.

    The post Core-Update im März 2019: Wie groß war es wirklich? appeared first on SISTRIX.

    SISTRIX

  • Das erste Core Algorithmus Update des Jahres ist da

    März 16, 2019 1:09 am - Posted by admin Category:SEO + SEM

    Die letzten Monate war es verhältnismäßig ruhig in den SERPs – doch jetzt ist es soweit und Google spielt ein großes Core Algorithmus Update ein. Was das ist und welche Auswirkungen zu sehen sind, erfährst du hier.

    Über unseren E-Mail- und Whatsapp-Newsletter gingen gestern Abend bereits die ersten Meldungen an die Abonnenten raus: in den SERP rumort es. Auch Google selber hat das Update über Twitter bestätigt:

    Die Auswirkungen dieses von Google „March 2019 Core Update“ genannten Updates zeigen sich bereits gut in den Daten der Toolbox von heute. In diesem Blogbeitrag fasse ich die ersten Erkenntnisse zusammen und zeige beispielhafte Gewinner und Verlierer dieses Core Updates.

    Was ist ein Core Algorithmus Update?

    Unter der sehr allgemeinen Bezeichnung “Core Algorithmus Update” fasst Google allgemeine Updates am Ranking-Algorithmus zusammen, die eine größere Auswirkung auf viele Domains haben. Im Gegensatz zu früher ist häufig nicht mehr klar, welche direkten Ziele Google mit diesem Update verfolgt.

    Vermutlich hängt das damit zusammen, dass Google weniger auf klassische, von Menschen eingegebene Ranking-Algorithmen setzt, sondern zunehmend selbstlernende, von Maschinen erstellte Algorithmen einsetzt. Mehr Hintergrundgedanken dazu kannst du in diesem Blogpost von uns erfahren.

    Wie erkenne ich betroffene Domains?

    Domains, die von diesem Update betroffen sind, haben im täglichen Sichtbarkeitsverlauf der Toolbox einen sehr charakteristischen Anstieg/Abfall vom 14.03. auf den 15.03. (heute) zu verzeichnen. Sehr gut sieht man das beispielsweise bei hoeffner.de:

    Bei den Gewinnern dieses Updates sieht es ähnlich aus – vom 14.03. auf den 15.03. gibt es eine signifikante Veränderung im Sichtbarkeitsindex. In den Tagen davor sind bei den betroffenen Domains in der Regel keine Auffälligkeiten im Sichtbarkeitsverlauf zu erkennen.

    Gewinner dieses Updates

    Den Core Updates gemein ist, dass es nicht nur Verlierer gibt, sondern auch zahlreiche Domains deutlich von diesen Updates profitieren. Eine Auswahl von Gewinnern des aktuellen Updates findest du in dieser Tabelle:

    Auswahl von Domains, die bei dem Update deutlich an Sichtbarkeit gewonnen haben
    Domain SI 08.03. SI 15.03. Gewinn (absolut)
    otto.de 157,04 228,17 71,14
    focus.de 272,83 322,68 49,85
    real.de 111,68 146,01 34,33
    netdoktor.de 158,98 192,39 33,42
    bild.de 167,56 193,32 25,76
    giga.de 76,19 101,57 25,38
    tripadvisor.de 304,68 325,34 20,66
    chefkoch.de 226,15 244,38 18,23
    trustpilot.com 43,93 60,91 16,98
    leo.org 84,34 100,96 16,62
    mein-schoener-garten.de 35,15 49,95 14,81
    spiegel.de 343,06 357,09 14,03
    sueddeutsche.de 197,86 211,81 13,95
    ebay.de 350,99 364,90 13,91
    winfuture.de 23,24 36,90 13,66
    check24.de 193,48 206,40 12,91
    pcwelt.de 89,04 101,63 12,58
    gabler.de 59,71 71,68 11,97
    kicker.de 24,06 35,86 11,80
    ladenzeile.de 120,66 131,37 10,71
    fernsehserien.de 52,92 63,50 10,58

    Auffällig ist, dass viele der betroffenen Domains bereits von den beiden großen Updates des letzten Jahres (Core Update im März 2018 und Medic Update im August) betroffen waren.

    Verlierer dieses Updates

    Bei den Verlierern des aktuellen Updates fällt sicherlich auf, dass mit apotheken-umschau.de und apotheken.de zwei Domains aus dem “Your Money, your Life”-Bereich besonders stark betroffen sind. Aber auch eine Möbelhändler wie hoeffner.de verliert mehr als die Hälfte seiner Google-Sichtbarkeit:

    Auswahl von Domains, die bei dem Update deutlich an Sichtbarkeit verloren haben
    Domain SI 08.03. SI 15.03. Verlust (absolut)
    apotheken-umschau.de 334,8 212,2 -122,6
    apotheken.de 50,3 20,1 -30,2
    stern.de 297,2 273,4 -23,8
    kununu.com 125,9 105,1 -20,8
    holidaycheck.de 349,8 330,2 -19,6
    gutefrage.net 74,1 54,5 -19,6
    autoscout24.de 142,4 123,4 -18,9
    hornbach.de 121,5 102,7 -18,8
    booking.com 237,1 218,7 -18,4
    immobilienscout24.de 181,3 165,2 -16,1
    xing.com 149,7 133,8 -15,9
    expedia.de 156,2 141,2 -15,1
    stepstone.de 113,1 99,0 -14,1
    softonic.com 75,0 61,0 -14,0
    t-online.de 321,6 307,8 -13,8
    wunderweib.de 92,6 79,2 -13,4
    meinestadt.de 197,6 184,2 -13,3
    hoeffner.de 22,8 10,4 -12,4
    linguee.de 248,6 236,2 -12,4
    swoodoo.com 55,2 44,2 -11,0

    Auch bei diesen Verlierern sind viele Domains dabei, die bereits auf die vorherigen Core-Updates reagiert haben. Es liegt also nahe, dass Google erneut an den gleichen Stellschrauben dreht, eventuell Bewertungskriterien anpasst oder zugrundeliegende Daten aktualisiert.

    Fazit

    Erneut hat Google eines der großen und weitreichenden Core Algorithmus Updates ausgespielt. Die Auswirkungen sind in den SERPs und damit auch in den Daten der Toolbox bereits deutlich zu sehen und betreffen zahlreiche Domains.

    Da dieses bereits das fünfte (oder je nach Zählweise auch sechste) Update der Serie war, ist davon auszugehen, dass weitere Updates in dieser Form folgen werden. Hektische Betriebsamkeit wird keine Lösung für die Rankingprobleme einer Domain sein. Aus heutiger Sicht sind folgende Vorgehen empfehlenswert:

    • Google Quality Rater Guidelines lesen und verstehen – Google legt in den Guidelines (PDF Download) ihre eigene Sichtweise auf Suche und Inhalte deutlich dar. Diese Sichtweise nachvollziehen zu können hilft dabei, zukunftssichere Angebote für Suchenden zu erstellen.
    • Beschäftigung mit dem Search Intent deiner Besucher – Was will der Nutzer eigentlich genau von mir? Diese Frage wirst du dir für jede Seite, die dauerhaft bei Google gut ranken soll beantworten müssen. Hier ist die Unterscheidung der verschiedenen Intent-Typen hilfreich. Mehr in diesem Blogpost oder hier im Podcast.
    • Für die auf dieser Basis erstellen/überarbeiteten Inhalte gibt es keine pauschalen Regeln. Sie müssen auf das Keyword-Cluster, das du mit ihnen erreichen willst individualisiert werden und die Nutzer-Erwartungen in dieser Mikro-Nische berücksichtigen. Dieser aktuelle Podcast auf Termfrequenz hilft als Einstieg und auch unser Content Assistant (aktuell noch in der Beta) geht in diese Richtung.

    Der SISTRIX Newsletter
    Trage Deine E-Mail Adresse ein um den SISTRIX Newsletter zu abonnieren.



    Der SISTRIX Newsletter
    Erhalte SEO-News direkt von SISTRIX auf Dein Smartphone oder in Deine Inbox. Jetzt anmelden:
    WhatsApp

    E-Mail

    The post Das erste Core Algorithmus Update des Jahres ist da appeared first on SISTRIX.

    SISTRIX