Wettkampf im eigenen Haus: den Keyword-Kannibalismus erfolgreich meistern

Daniel Kremer

Daniel Kremer leitet eines von drei SEO-Consulting-Teams bei der diva-e NEXT GmbH und ist daneben auch in der operativen Kundenberatung aktiv. Besonders begeistert ihn neben der technischen und strategischen SEO die Integration von künstlicher Intelligenz in Arbeitsprozesse, um die Effizienz und Output-Qualität zu steigern.

Mehr von diesem AutorArtikel als PDF laden

Keyword-Kannibalismus ist ein häufiges Problem „großer“ Websites, denn er führt nicht selten zu Ranking-Verlusten, wenn mehrere Seiten um dasselbe Keyword konkurrieren. Dieser Artikel zeigt, wie bei einem Online-Shop mit gezielten Analysemethoden und KI-Unterstützung problematische Fälle von Keyword-Kannibalismus gefunden, priorisiert und optimiert wurden.

Schluss mit dem Ranking-Wirrwarr

Der Kunde, Betreiber eines Online-Shops, sah sich mit einem erheblichen Problem des Keyword-Kannibalismus konfrontiert. Für umsatzrelevante Keywords kam es in der jüngeren Vergangenheit zu häufigen Wechseln der rankenden URLs sowie Doppelrankings. Dies schwächte die Auffindbarkeit des Kunden in der organischen Google-Suche. Durch fehlende interne Koordination und die Beteiligung zahlreicher Stakeholder wurde häufig, wenn auch unabsichtlich, Keyword-Kannibalismus verursacht.

Was ist Keyword-Kannibalismus und wie macht sich dieser bemerkbar? 

Keyword-Kannibalismus liegt vor, wenn mindestens zwei Unterseiten einer Domain auf dasselbe (Haupt-)Keyword abzielen und Relevanz-Signale für dieses an Google senden. Die Suchmaschine hat in der Folge Schwierigkeiten, zu erkennen, welche der URLs die relevanteste Antwort auf die Suchanfrage liefert. Die Website tritt mit sich selbst in Konkurrenz. Das Resultat: ausbleibende Top-Rankings, häufige Wechsel der rankenden URLs oder auch Doppelrankings auf „hinteren“ Positionen.

Die Konkurrenz innerhalb einer Domain entsteht oft durch gut gemeinte Überoptimierung oder eine mangelnde SEO-Strategie und ist besonders bei großen, älteren Websites ein häufiges Problem. In diesem Fall werden häufig neue Seiten für Themen erstellt, für die es bereits eine Seite gibt, oder es wird auf vermeintlich neue Keywords optimiert, für die die Domain in Wirklichkeit aber schon Rankings besitzt.

Keyword-Kannibalismus-Analyse: unser Vorgehen?

Keyword-Kannibalismus kann auf unterschiedliche Art und Weise aufgedeckt werden, zum Beispiel durch den Einsatz von SEO-Tools wie Sistrix oder Ahrefs. Unsere Analyse wollten wir jedoch auf „echten“ Google-Daten aufbauen, weshalb die Leistungsdaten der URLs aus der Search Console als Grundlage verwendet wurden.

Von Relevanz waren Fälle, bei denen mehr als eine URL Impressionen für eine Suchanfrage generierte. Die Domain des Kunden umfasst mehrere Tausend URLs. Bei einem Online-Shop dieser Größe ist es in der Praxis eher selten, dass für eine Vielzahl der Keywords über einen Zeitraum von zwölf Monaten jeweils nur eine einzige URL Impressionen generiert. Daher war es im Vorfeld der Analyse notwendig, klar zu definieren, welche Fälle von potenziellem Keyword-Kannibalismus identifiziert und genauer untersucht werden sollten, um nicht in der Flut der Daten unterzugehen.

Folgende Parameter wurden festgelegt:

  1. Impressionen in Relation setzen: Nur Keywords mit mehreren rankenden URLs und einer Abweichung bei den Impressionen innerhalb von 150 % wurden berücksichtigt, um Ausreißer durch kurzfristige Google-Tests auszuschließen.
  2. Priorisierung nach Anzahl der Impressionen: Fälle mit mehr als 500 Impressionen sollen hervorgehoben werden.

Es sollen also nur jene Fälle analysiert werden, bei denen die am stärksten performende URL eines Keyword-Kannibalismus-Sets viele Impressionen erzielt und die zweitstärkste URL des Sets eine ähnliche Anzahl an Impressionen aufweist (maximal 150 % Abweichung). Hinweis: Die prozentuale Abweichung sollte kunden- oder projektabhängig festgelegt werden. Für andere Projekte kann sich hier ein anderer Schwellenwert als sinnvoll erweisen.

Diese Informationen wurden zusammen mit der Datei mit den Search-Console-Daten an ChatGPT übermittelt, das den riesigen Datensatz filterte und nur jene Fälle extrahierte, die beide Bedingungen erfüllten. Diese KI-gestützte Vorauswahl bietet eine effektive Möglichkeit, problematische URLs schnell zu identifizieren.

Bevor in die Detailanalyse eingestiegen werden konnte, wurden die aktuellen Rankings für die Keywords ermittelt und so beispielsweise Keywords für die initiale Betrachtung depriorisiert, die aktuell auf Platz eins oder zwei ranken.

Für den Großteil der Fälle ließ sich das Kannibalismusproblem auf ein Muster zurückführen: Unterseiten waren mehreren Kategorien zugeordnet, hatten jeweils eine eigene URL und waren indexierbar. Beispiel: Die Unterseite „Baurecht“, auf der Bücher zum Thema Baurecht gelistet sind, befindet sich sowohl in der Kategorie „Architektur“ als auch in der Kategorie „Öffentliches Recht“. Für Suchanfragen zum Thema Baurecht wechselte Google zwischen den zwei URLs im Ranking hin und her. Des Weiteren lagen oftmals auch Doppelrankings der beiden URLs auf den Positionen sieben und elf oder sechs und zwölf vor.

Nachdem das Muster aufgedeckt worden war, haben wir mithilfe eines Crawling-Tools alle Überschriften erster Ordnung (H1) extrahiert und auf Duplikate („Exact Match“) geprüft. Es zeigte sich, dass mehrfach kategorisierte URLs zu demselben Thema die identische H1 aufwiesen. Selbst wenn bei vielen dieser Fälle aktuell keine Kannibalismusgefahr bestand, wollten wir einen Schritt voraus sein und Lösungen schaffen, bevor es zu Problemen kommt. Die Lösung bestand darin, einige Seiten zu konsolidieren und zusammenzulegen und andere auf „noindex“ zu setzen.

Die Ergebnisse dieser Maßnahme waren eindeutig: Für die meisten der betroffenen Keywords konnten die Rankings und in der Folge auch der organische Traffic spürbar gesteigert werden. Ein netter Nebeneffekt dieser „Indexhygiene-Maßnahmen“ war, dass auch die allgemeine Sichtbarkeit des Kunden gestiegen ist.

Fazit

Keyword-Kannibalismus ist ein Thema, das insbesondere bei großen, dynamischen Websites regelmäßig überprüft werden sollte, denn es kann eine Domain erheblich in ihrer organischen Sichtbarkeit schwächen.

Dieser Fall zeigt, dass KI-gestützte Tools wie ChatGPT wertvolle Unterstützung bei der Datenaufbereitung bieten und das Identifizieren problematischer Fälle beschleunigen können, wenn sie zielgerichtet eingesetzt werden. Besonders bei sehr großen Domains zahlt es sich aus, nach Mustern im Datensatz zu suchen, um unter Anwendung der „80/20-Regel“ die größten Schwachstellen zu beheben und sich nicht in Details zu verlieren.

Eine nachhaltige Lösung erfordert jedoch mehr als nur einmalige Analysen: Keyword-Kannibalismus sollte regelmäßig überprüft werden, insbesondere bei Domains mit hohem Content-Wachstum. Um solche Keyword-Kollisionen möglichst vermeiden zu können, sollten Unternehmen Prozesse und Strategien etablieren, die verhindern, dass mehrere Seiten für dasselbe Thema erstellt beziehungsweise indexiert werden. Leichter gesagt als getan!