Bad Neighbourhood: Schlechtere Rankings durch Shared Hosting

Das Prinzip der Bad Neighbourhood (zu deutsch: schlechte Nachbarschaft) gilt im Bereich der Suchmaschinenoptimierung schon lange. Hierbei werden die Webseiten im Ranking abgestraft, die sich eben – zumindest aus Sicht von Google – in “schlechter Gesellschaft” bewegen. Dies können sowohl von der betreffenden Webseite ausgehende Links, aber auch eingehende Backlinks von unseriösen Spam-Domains oder gehackten Webseiten sein.

Doch während die meisten SEO Agenturen bei Bad Neighbourhood lediglich an Linkbeziehungen (also ausgehende Links und eingehende Backlinks) denken, wurde ein Bereich bislang von vielen relativ sträflich vernachlässigt. Ein Bereich, der – wie sich nun langsam zeigt – eigentlich ein viel größeres Augenmerkt verdient gehabt hätte: das Hosting.

Was ist Shared Webhosting?

Shared Hosting ist ein populäres Hosting-Modell in dessen Rahmen eine Vielzahl von Webseiten über einen gemeinsamen Server gehostet und ausgeliefert wird. Ein Webhoster kann somit die Ressourcen eines Servers, die für den Betrieb einer einzigen Webseite deutlich zu überdimensioniert und somit unrentabel wären, auf mehrere Webseitenbetreiber aufteilen und somit die Betriebskosten splitten. Die Betreiber einer Webseite können auf diese Weise für relativ wenig Geld Webhosting anmieten und ihre Webseite ins Netz bringen.

Die SEO-Auswirkungen von Shared Webhosting

Bislang lag das größte Augenmerk der Branche beim Hosting, insbesondere jedoch aufgrund der Eigenheiten beim Shared Hosting, auf dem Thema Performance. Denn, je mehr Kunden ein Hoster auf einen Server packt desto weniger Ressourcen bleiben für das Hosting der einzelnen Webseite übrig. Aber auch bei einem teureren Paket und weniger Kunden pro Server kann man Pech haben und der Nachbar mit dem man sich den Server teilt eine ressourcenintensive Anwendung betreiben, die viel Leistung auf sich bündelt.

Doch diese Denkweise wird sich nun ändern. Denn die UK-basierte Online Marketing Agentur Reboot Online Marketing hat ein Update veröffentlicht, welches ihre im September 2020 veröffentlichten Ergebnisse noch einmal untermauert.

Google erkennt bereits nachgewiesenermaßen zahlreiche bekannte On- und Offpage Signale einer Website, wertet diese aus und nutzt sie für das Ranking einer Domain. Reboot ist nun aber der Meinung, dass Google auch weitere, bislang unbekanntere Signale analysiert und für das Ranking verwendet. Sie hypothetisieren, dass Google beispielsweise auch prüft, ob ein minderwertigeres & günstigeres Hosting verwendet wird, welches aufgrund der geringen Preises auch attraktiv für Spam-Webseiten und Domains ist.

Denn auch Google selbst listet in den manuellen Maßnahmen, also den Handlungsempfehlungen bei Ranking-Problemen mit der Website explizit Webhosting Dienste mit Spam-Problemen auf. Obwohl in diesem Dokument von kostenlosen Webhosting Diensten die Rede ist, lässt die folgende Aussage nicht viel Interpretationsspielraum dahingehend, dass dies genau so auch auf Shared Webhosting Server zutreffen kann:

Sollten Spammer jedoch Teile oder sogar den gesamten kostenlosen Webhosting-Dienst ausgenutzt haben, sehen wir uns möglicherweise gezwungen, die Anzeige des Dienstes in den Suchergebnissen einzuschränken, damit unsere Nutzer keinen Spam erhalten.

Quelle: Search Console-Hilfe

Um ihrer Hypothese zu testen, betrieb Reboot einiges an Aufwand:

Sie erfanden im ersten Schritt ein neues Keyword, welches bislang in der Google Suche noch nicht vertreten war und dementsprechend keine Ergebnisse zurücklieferte. Anschließend wurden 20 Domainnamen erfunden, die wiederum ebenfalls bislang weder in der Google Suche vertreten waren, keine Backlinks erhalten hatten und keine nachvollziehbare Internethistorie aufwiesen. Damit wurde sichergestellt, dass die Ergebnisse dieses SEO Experiments nicht von älteren Daten und Rankings beeinflusst wird.

Reboot erstellte nun 20 Webseiten, die allesamt sehr stark auf das gewählte Keyword optimiert wurden, eine gute Performance aufwiesen und obwohl sehr ähnlich aufgebaut, durch unterschiedliche Klassen nie eine identische Codebase hatten. Diese statischen Webseiten wurden auf 10 Instanzen eines AWS-Hostings (Amazon Web Services) mit jeweils eigener IP-Adresse, sowie 10 Servern innerhalb eines Shared Webhostings aufgespielt. Um eine mögliche Auswirkung auf Rankings noch stärker messen zu können, wurde bei der Auswahl der genutzten Shared Hosting Server darauf geachtet, Server zu nutzen die bereits Webseiten mit bestimmten, einschlägigen Keywords hosten. Denn gemäß ihrer Hypothese, wollten sie genau diese Server nutzen und in den Vergleich einbinden, die von der Qualität des Contents der anderen Webseiten eher minderwertig anzusehen sind.

Fast vier Monate wurden die Webseiten nach der jeweiligen Einreichung in der Google Search Console online gelassen und nach Abschluss des Experiments das Ranking zu dem vorher bestimmten Keyword überprüft. Das Resultat war letztendlich dann ziemlich eindeutig. In den Top 10 der Rankings zu dem Keyword befanden sich 9 der auf AWS gehosteten Webseiten mit dedizierter IP-Adresse, lediglich auf Platz 8 trudelte eine Webseite eines Shared Hostings ein. Neun der Top 10 Ergebnisse wurden somit von Webseiten auf Servern mit eigener IP-Adresse belegt, obwohl der Content und die technische Qualität der Seiten auf dem Shared Hosting sich nicht von ihnen unterschied.

The results of this experiment suggests that shared hosting options that share IP addresses with toxic and low-quality websites can in fact have a detrimental effect on the organic performance and rankings of a website hosted there if the website ends up being hosted alongside lower-quality and potentially spammy ones (providing all websites being observed are otherwise on a level playing field).

Long Term Shared Hosting Experiment – REBOOT

Wer ist in der eigenen Neighbourhood?

Doch wer ist nun in der Nachbarschaft also dem Server auf dem auch die eigene Webseite gehostet ist? Relativ einfach nachzuvollziehen, wenn man selber bzw. der eigene IT-Dienstleister den gesamten Server mit eigener IP-Adresse verwaltet und dementsprechenden Überblick hat. Was kann man aber tun um herauszufinden, wie viele und vor allem welche Seiten auf dem “eigenen” Shared Webhosting Server liegen?

Zuallererst macht es Sinn den Hoster anzusprechen. Hier habe ich – so wie eigentlich fast immer – die Erfahrung gemacht, dass vor allem kleinere und bemühte Hoster mit persönlichem Ansprechpartner deutlich offener und lösungsorientierter handeln als die bekannten Platzhirsche.

Ist der Hoster nicht gewillt weiterzuhelfen, kommen externe Web-Services ins Spiel. Als besonders einfach für Anfänger zu bedienen hat sich beispielsweise ViewDNS.info herausgestellt. Mit dem Reverse IP Lookup muss man sogar nicht mal die IP Adresse des Servers bzw. den A-Record der Domain kennen, sondern hier lediglich den Domainnamen eingeben und bekommt einige Sekunden später eine – je nach Server – umfangreichere Liste ausgegeben. Diese kann und wird allerdings nicht aktuell und vollständig sein, allerdings gibt sie bereits einen ganz groben Überblick darüber, in welcher “Nachbarschaft” sich die Webseite befindet.

Alternativen zum Shared Webhosting

Auch vor Veröffentlichung dieser Studie hatte das Hosten von Webseiten auf einem eigenen Server mit dedizierter IP-Adresse viele Vorteile, v.a. aufgrund der besseren Kontrolle der Performance und Sicherheit. Nun kommt auch der Aspekt des möglichen besseren Rankings aufgrund seriöserer Serverumgebung hinzu, was die Nutzung eines eigenen Servers nun fast zur Pflicht werden lässt. Wer nicht das technische Know-How hat um einen eigenen Server komplett eigenständig zu administrieren (Dedicated Server), dem steht auch die Möglichkeit der Anmietung eines sogenannten Managed Servers offen, welcher dann technisch vom Hoster betreut wird. Günstiger ist die Erstellung eines Cloud Servers, der virtuell auf einem physischen Server eingerichtet wird und ebenfalls alle Freiheiten und üblicherweise genug Ressourcen für einfache Webseiten bietet.