Wie das Krümelmonster 22 % der Sichtbarkeit fraß

Hanna Adolph

Hanna Adolph arbeitet seit mehr als fünf Jahren als Inhouse-SEO bei dem Hybridmakler Homeday. Sie ist SEO der ersten Stunde bei Homeday und hat die Sichtbarkeit der Domain von Anfang an mit aufgebaut. Mittlerweile führt sie ein vierköpfiges Team. Ihr Steckenpferd ist das technische und strategische SEO.

Mehr von diesem AutorArtikel als PDF laden

Warum ist es wichtig, eine Migration in Testwellen durchzuführen? Damit bei einem Sichtbarkeitsverlust von 22 % innerhalb von fünf Tagen nur eine geringe Anzahl von Seiten betroffen ist und genug Zeit da ist, um potenzielle Fehler zu finden. Genau das ist dem Hybridmakler Homeday passiert. Welcher vermeintlich unbedeutende Aspekt zu dem Sichtbarkeitsverlust führte, wie Homeday diesem Fehler auf die Spur kam, eine Lösung fand und implementierte, erfahren Sie in diesem Beitrag von Hanna Adolph.

Letztes Jahr entschied sich Homeday, Hybridmakler und eines der führenden Immobilien-Tech-Unternehmen in Deutschland, für eine Migration auf ein neues Content Management System (CMS). Ziele der Migration sind u. a. die Erhöhung der Seitengeschwindigkeit und die Schaffung einer modernen, zukunftssicheren Website mit allen notwendigen Features.

Nach der Evaluierung verschiedener CMS hat sich Homeday für Contentful entschieden, da es über einen modernen Technologie-Stack verfügt, der sowohl für Redakteure als auch für Entwickler eine hervorragende Erfahrung bietet. Contentful ist ein Headless CMS, das heißt, dass Nutzer Inhalte zentral in einem CMS verwalten und auf verschiedensten Endgeräten und Kanälen ausspielen können. Aus technischer Sicht erlaubt Contentful als Headless CMS die Wahl der Rendering-Strategie. Homeday hat sich für den „Static SSR“-Ansatz entschieden (auch SSG – Static Site Generation genannt). Dieser ist als Single Page App aufgebaut. Alle Seiten werden zu statischem HTML vorgerendert und das JavaScript wird entfernt. Abbildung 1 zeigt eine Übersicht über die verschiedenen Rendering-Ansätze von Google.

Die Migration wird derzeit in mehreren Schritten, sogenannten Wellen, durchgeführt. Hierdurch soll das Risiko von Problemen, die sich großflächig negativ auswirken könnten, verringert werden.

Einrichten der ersten Testwelle

Für die erste Testwelle wurden zehn SEO-Seiten mit hohem Traffic, aber niedrigen Konversionsraten ausgewählt. Eine Infrastruktur für das Reporting und Monitoring dieser zehn Seiten wurde eingerichtet. Aufgesetzt wurde:

  • Rank-Tracking für die relevantesten Keywords
  • SEO-Dashboard (DataStudio, SEMRush, Search Console, Google Analytics)
  • Regelmäßige Crawls

Nach einer umfangreichen Planungs- und Testphase wurden die ersten zehn SEO-Seiten auf das neue CMS am 2. Dezember 2021 migriert. Obwohl während der Testphase einige Herausforderungen auftraten (erhöhte Ladezeiten, größeres HTML Document Object Model etc.) wurde beschlossen, live zu gehen. Noch am selben Tag wurden umfangreiche Tests der relevanten Teile der Seiten durchgeführt, um Fehler auszuschließen.

Erste Leistungsüberprüfung

Sehr erfreut über das Erreichen des ersten Schritts der Migration wurde am nächsten Tag ein Blick auf die Leistung der migrierten Seiten geworfen. Doch die ersten Ergebnisse zeigten eine schockierende negative Entwicklung. Über Nacht sank die Sichtbarkeit der getrackten Keywords für die migrierten Seiten von 62,35 % auf 53,59 %. Dies entsprach einem Verlust von 8,76 % der Sichtbarkeit an einem Tag!

„Die Sichtbarkeit sank über Nacht!“

Als Folge dieses starken Rückgangs der Rankings wurde eine weitere umfangreiche Testrunde durchgeführt. Alle Artikel hatten ein Cache-Datum nach der Migration, und der Inhalt war vollständig indexiert. Außerdem konnten relativ viele Risikofaktoren der Migration (Änderung von URLs, Änderung von Inhalten, Meta-Tags, Layout usw.) als Fehlerquelle ausgeschlossen werden, und alle Inhalte wurden von Google korrekt gelesen.

Die Sichtbarkeit für die getrackten Keywords sank weiter auf 40,60 %, also fast 22 % Verlust innerhalb von fünf Tagen. Dies zeigte sich auch deutlich im Vergleich zum Wettbewerb der getrackten Keywords (Abbildung 2, hier „geschätzter Traffic“), aber die Sichtbarkeit sah analog aus.

Es musste definitiv ein technisches Problem sein. Die Vermutung war, dass mögliche Ursachen mehr JavaScript, schlechtere Core Web Vitals, größeres/komplexeres HTML DOM waren. Die Probleme mussten so schnell wie möglich identifiziert und die Fehler schnell behoben werden, um weitere negative Auswirkungen und Traffic-Einbußen zu minimieren.

Den Krümel im Keks finden

Ein weiterer Tag verging, und endlich kam der erste richtige Hinweis darauf, welcher technische Grund den Sichtbarkeitsverlust verursachen könnte. Eines der Monitoring Tools zeigte, dass sowohl die Anzahl der Seiten mit hoher externer Verlinkung (spezifiziert als mehr als zehn externe Links) als auch die Anzahl der Seiten mit maximaler Content-Größe (spezifiziert als größer als 51.200 Bytes) anstieg, zu sehen in Abbildung 3 und 4.

„Nach einem Tag kam dann der erste Hinweis auf ein technisches Problem.“

Ein proportionaler Anstieg zur Anzahl der Seiten, die migriert wurden, war zu sehen. Nachdem überprüft wurde, welche externen Links zu den migrierten Seiten hinzugefügt worden waren, wurde ersichtlich, dass der Googlebot die Cookie-Zustimmung für alle migrierten Seiten las und indexierte. In Abbildung 5 ist die durchgeführte Site-Suche zu sehen, die die Hypothese bestätigte, dass der Inhalt der Cookie-Einwilligung auf den zehn migrierten Seiten indexiert wurde.

Dies führte zu mehreren Problemen:

  • Durch die Indexierung der Cookie-Einwilligung wurden viele doppelte Inhalte für jede Seite erstellt.
  • Der Umfang des Inhalts der migrierten Seiten nahm drastisch zu. Dies ist ein Problem, da Seiten mit einem sehr umfangreichen Inhalt möglicherweise nicht vollständig indexiert werden.
  • Die Anzahl der externen ausgehenden Links nahm drastisch zu.
  • Die Snippets der migrierten Seiten zeigten auf der Ergebnisseite der Google-Suchmaschine plötzlich ein Datum an. Dies deutet auf einen Blog oder einen Nachrichtenartikel hin. Die meisten Artikel auf Homeday sind jedoch evergreen content, daher hat die Anzeige eines Datums hier nicht viel Sinn. Außerdem wurde aufgrund des Datums die Meta-Beschreibung abgeschnitten.

Aber warum passiert das? Nach Angaben des Dienstleisters Cookiebot (einfach.st/cok54) greifen Suchmaschinen-Crawler auf Websites zu und simulieren dabei eine vollständige Zustimmung. Dadurch erhalten sie Zugang zu allen Inhalten. Cookie-Texte aus dem Cookie-Einverständnis-Banner werden vom Crawler nicht indexiert. Die Crawler von Suchmaschinen werden durch den Einsatz vom Cookiebot nicht beeinträchtigt. Warum war dies also bei den migrierten Seiten nicht der Fall? Die migrierten Seiten wurden mit verschiedenen User Agents gecrawlt und gerendert. Trotzdem konnte keine Spur vom Cookiebot im Quellcode gefunden werden.

Untersuchung der Google DOMs und Suche nach einer Lösung

Wie eingangs beschrieben, werden die migrierten Seiten mit dynamischem HTML und JavaScript gerendert. Deshalb wurde im HTML-Quelltext zunächst keine Spur der Cookie-Einwilligung gefunden. Zwar wurde ein größeres DOM erkannt, aber dies wurde auf das komplexere, größere DOM von Contentful zurückgeführt. Um zu überprüfen, ob der Googlebot die Cookie-Texte aus dem Cookie-Einwilligungsbanner liest, wurde das URL-Inspektionstool der Google Search Console verwendet. Das DOM einer migrierten Seite wurde mit dem DOM einer nicht migrierten Seite verglichen. Abbildung 6 zeigt den im DOM einer migrierten Seite gefundenen Inhalt der Cookie-Einwilligung.

„Die Cookie-Deklaration wurde von Google gerendert und indexiert!“

Zudem wurden Skripte, die auf der Homepage geladen wurden, mit Skripten, die auf den migrierten Seiten geladen wurden, verglichen:

  • Das einzige Skript, das auf der Homepage geladen wurde, war uc.js, das für den Cookie-Einwilligungsbanner verantwortlich ist.
  • Auf den migrierten Seiten wurde neben uc.js auch eine cd.js-Datei geladen, die für die Cookie-Deklaration zuständig ist.

Es war also tatsächlich die Cookie-Deklaration, die gerendert und indexiert wurde. Es wurde somit vermutet, dass ein einfaches Entfernen der geladenen cd.js-Datei die Lösung ist.

Leistungsüberprüfung nach Implementierung der Lösung

Am 20. Dezember 2021 wurde die Lösung implementiert, indem das Skript für die Cookie-Deklaration gelöscht wurde. Die Sichtbarkeit hatte sich seit der Migration zu diesem Zeitpunkt nicht stabilisiert. Sie lag inzwischen bei 41,70 %, was immer noch –21 % zu Vormigrationsniveau entsprach. Am Tag nach dem Löschen der Datei stieg die Sichtbarkeit bereits auf 50,77 %, am nächsten Tag war sie mit 60,11 % fast wieder auf Vormigrationsniveau. Der geschätzte Traffic verhielt sich analog dazu. Was für eine Erleichterung!

Fazit

Es ist vorstellbar, dass viele, die seit mehreren Jahren im Bereich SEO arbeiten, mit kleinen Problemen wie diesem zu tun hatten. Es scheint unbedeutend zu sein, führt aber zu einem erheblichen Rückgang der Sichtbarkeit und des Traffics während der Migration. Deshalb ist es sinnvoll, eine Migration in Wellen durchzuführen. Die Leistung der migrierten Seiten ist jetzt fast wieder normal, und es wird mit der nächsten Welle fortgefahren. Dankbar für die Zusammenarbeit mit einem erfahrenen Team wird nun ein erfolgreicher Abschluss der Migration angestrebt. Auch wenn Homeday intern über profunde SEO-Kompetenz verfügt, ist ein Blick von außen immer sinnvoll. Daher war die Unterstützung durch eine externe SEO-Agentur hier sehr wertvoll. Das Erkennen von Problemen und das gemeinsame Aufstellen von Hypothesen haben geholfen, das Problem zeitnah zu lösen. Das Krümelmonster wurde wieder einmal besiegt!