Wer kennt es nicht? Es wurde ein Google Update angekündigt oder läuft gerade, du schaltest montags deinen Laptop an und es ist passiert: Der Sichtbarkeitsindex deiner Website befindet sich im freien Fall. Der Trend hält auch die nächsten Tage und Wochen an. Natürlich kommen nun Fragen auf, wie: „Woran hat es gelegen?“ und „Was können wir dagegen machen?“.
Sichtbarkeitsanalyse: die Schritt-für-Schritt-Anleitung
Der SISTRIX Sichtbarkeitsindex ist eine Kennzahl, die die Präsenz einer Website in den Google-Suchergebnissen misst. Er berücksichtigt dabei Suchvolumen, Position und Wettbewerb der Keywords für eine Domain. Im SEO wird der Index oft verwendet, um die Performance einer Website zu bewerten, Veränderungen nach Updates zu erkennen und Vergleiche mit Wettbewerbern anzustellen.
Sinkt nun der Sichtbarkeitswert zum Beispiel infolge eines Updates stark, heißt dies: Höchstwahrscheinlich hat deine Website Rankings verloren. Eventuell haben diese direkten Einfluss auf deinen Traffic und somit auch auf die Conversions. Eine genaue Analyse ist notwendig, um den tatsächlichen Impact zu kennen und ggf. Gegenmaßnahmen zu bestimmen. Oft gleicht eine solche Analyse der Suche nach der Nadel im Heuhaufen, und am Ende findet man sie doch nicht. Hier findest du ein Vorgehen, mit dem du bei dem nächsten Sichtbarkeitsverlust Muster erkennst, Ursachen findest und folglich genaue Gegenmaßnahmen definieren kannst.
#1 Wie der Heuhaufen verkleinert wurde
Der erste Blick in die Daten des Kunden war ernüchternd: Der Sichtbarkeitsverlust betraf alle Bereiche der Domain gleichermaßen – von den Hosts bis zu den Verzeichnissen. Laut SISTRIX umfasste die betroffene Domain über 600.000 Keywords und etwa 10.000 rankende URLs. Eine schnelle Antwort war nicht in Sicht, vielmehr wurde deutlich: Der Datenberg musste verkleinert werden, um eine gezielte Analyse zu ermöglichen.
Die entscheidende Frage, um dies zu bewerkstelligen, lautete also: Welche Keywords haben den größten Einfluss auf den Sichtbarkeitsindex? Gefiltert wurde anschließend nach Keywords mit über 100 Suchvolumen und einem Ranking besser als 21 (vor Verlust). So wurde der Datenberg auf nur noch 21.000 Keywords reduziert – immer noch zu viel, um Muster zu erkennen.
Der nächste Schritt war klar: weiter kategorisieren.
Um systematisch vorzugehen, teilten wir die Keywords in mehrere Kategorien ein:
- Verzeichnis: Subdomain, Service, Produktsparte usw.
- Seitentyp: Ratgeber, Produktseite, Serviceseite etc.
- Produktsparte: Zuordnung nach Produktgruppen
- Keyword-Typ: Brand vs. Non-Brand, Shorthead vs. Longtail
- Intent und Conversion-Relevanz: Nähe zur Conversion und Intention
Stück für Stück konnten über die Kategorisierungen und unter dem Einsatz von verschiedenen Filterkombinationen die wirklich relevanten Keywords identifiziert und gleich in drei Bereiche eingeteilt werden:
- Generische Shorthead-Keywords: hohe Verluste bei breit gefassten Begriffen mit hohem Suchvolumen.
- Informative Keywords: Verluste vorwiegend bei Content, der weit vom Produkt entfernt ist (zum Beispiel Ratgeberinhalte).
- Produkt-Keywords: relativ stabile Rankings mit Schwankungen innerhalb der Top 10.
#2 Was bedeutet das für unsere Business-Ziele?
Letztlich geht es im SEO nicht um die Sichtbarkeit und gute Rankings, sondern um Umsatzgenerierung. Rankings sind jedoch notwendig, um Traffic auf die Website zu bringen, und stellen somit auch die Basis für Conversions dar. Ein Blick auf die KPIs Klicks und Conversions zeigte zwar auch einen Rückgang seit dem Sichtbarkeitsverlust, aber in einem wesentlich geringeren Ausmaß. Einige Bereiche konnten sogar trotz Sichtbarkeitsverlust an Traffic und/oder Sales gewinnen. Kombiniert mit den Erkenntnissen aus dem ersten Schritt ergab dies Folgendes:
- Generische Shorthead-Keywords: Obwohl diese Keywords früher starke Rankings hatten, blieb ihr Einfluss auf Traffic und Sales gering. Der Sichtbarkeitsverlust machte deutlich, dass diese Keywords für das Business kaum relevant sind.
- Informative Keywords aus den Ratgebern: Unter den stärksten Verlierern fanden sich primär produktferne Themen, die vor allem Einfluss auf den Traffic, aber weniger auf die Conversions hatten. Auffällig: Je näher ein Thema an einem Produkt liegt, desto stabiler blieben die Rankings.
- Produkt-Keywords: Hier lagen die Verluste hauptsächlich innerhalb der Top 10, was Traffic und Sales je nach Produkt unterschiedlich stark betraf. Da diese Themen jedoch direkt an einer Conversion liegen, sind die Entwicklungen auch am relevantesten für das Businessziel „Umsatz“.
#3 Von Verlierern und Gewinnern zu den vermeintlichen Gründen
Nachdem nun die wesentlichen Verlierer identifiziert wurden, stellt sich als Nächstes die Frage: Warum haben genau diese Themen verloren und wer hat die Positionen übernommen? Die Suchergebnisse bestanden weiterhin aus bis zu zehn organischen Ergebnissen, angereichert durch „People Also Ask“-Features, Featured Snippets und gelegentlich Anzeigen. Um zu verstehen, wohin sich die Sichtbarkeit bewegt hat, wurden 20 Keywords aus den zwei Keyword-Gruppen mit direkter Umsatzrelevanz ausgewählt. Der Fokus lag darauf, den Share of Voice (SOV) vor und nach dem Sichtbarkeitsverlust zu vergleichen.
Die Erkenntnis aus der Share-of-Voice-Analyse ergab:
- Die SERPs sind diverser geworden: Es ranken viel mehr unterschiedliche Seiten. Vor allem Nischenseiten konnten gewinnen.
- Seite mit klarem Intent gewinnen: Bei Produkt-Keywords konnten Seiten mit einem klaren transaktionalen Fokus gewinnen. Bei informativen Keywords dagegen konnten eindeutige Ratgeberseiten gewinnen.
#4 Also: Woran hat es nun gelegen?
Durch die genaue Klassifizierung konnten drei Keyword-Gruppen identifiziert werden, die maßgeblich für den Sichtbarkeitsverlust verantwortlich waren. Nachdem diese drei Gruppen mit Traffic- und Conversion-Daten ergänzt wurden, zeigte sich: Nur zwei haben Einfluss auf den Traffic und sogar nur ein geringer Anteil tatsächlich auch auf Kaufabschlüsse. Mit dem Share-of-Voice-Vergleich wurden bei den wichtigsten Themen die Veränderungen der SERPs deutlich, was einen direkten Hinweis auf die Gründe für genau diese Veränderungen lieferte.
Die einzelnen Schritte kombiniert, führten schließlich zu folgendem Ergebnis, auf dessen Basis entsprechende Maßnahmen erarbeitet werden konnten:
- Hauptursache: Googles Fokus auf Helpful Content und die verstärkte Berücksichtigung von E-E-A-T-Kriterien (Experience, Expertise, Authoritativeness, Trustworthiness).
- Konsequenzen: Themen, die nicht unmittelbar mit dem Kernangebot des Unternehmens zusammenhängen, performten schlechter.
- Fazit: „Es ging – wie so oft – nicht darum, mehr Content zu erstellen, sondern relevanteren Content, der genau auf die Bedürfnisse der Nutzer abgestimmt ist.“



