SEO-Analyse mit System:

wie Datenkombination und eigene kleine Tools echte Optimierung ermöglichen

Uwe Roll
Uwe Roll

Uwe Roll ist Berater für SEO & GEO sowie Gründer & Geschäftsführer der Berliner Digital-Agentur digitalike. Nach seinen Stationen als Inhouse SEO bei Bosch und Toptarif war er Senior SEO-Consultant & Teamleiter bei Trust Agents (heute Dept). 2023 gründete er dann die Berliner Agentur digitalike, die sich auf die Optimierung von Website für KI-Systeme und Suchmaschinen spezialisiert hat. Als Speaker und Autor ist er bekannt von der SEOkomm, dem SEO Day, dem SEOpresso-Podcast und dem OMT.

Mehr von diesem AutorArtikel als PDF laden

Der morgendliche Blick in das SEO-Tool der Wahl kann zu echten Schockmomenten führen: 500 rote Meldungen und 300 gelbe Warnungen (fast jedes Tool hat diese Warnampel). Oder: Sichtbarkeit um 15 % gesunken. Und jetzt? Vermutlich ist es gar nicht so schlimm, wie es scheint. Uwe Roll zeigt an passenden Beispielen, wie man Berichte aus SEO-Tools deuten sollte, welche Analysen wirklich sinnvoll sind und wie man diese mit eigenen Tools und Daten zuverlässig lösen kann.

Berichte aus SEO-Tools sind nur ein erster Anhaltspunkt

Viele SEO-Tools liefern in ihren Dashboards einen Zustandsbericht zur analysierten Website. Typische Meldungen sind etwa:

  • 255 Meta Descriptions zu lang
  • Vier Seiten nicht gefunden (404)
  • 32 fehlende HTML-Title
  • 1.100 leere ALT-Attribute
  • 20 nicht indexierbare Inhalte

Diese Meldungen sind zweifellos relevant. Doch erfordern sie wirklich sofortiges Handeln? Und welche konkreten Maßnahmen sind operativ nun erforderlich? Oft bleiben diese Fragen unbeantwortet. Erfahrungsgemäß liegen die entscheidenden Hebel für eine erfolgreiche Suchmaschinenoptimierung oft tiefer. Die von den Tools erfassten Daten dienen als Grundlage für weiterführende Analysen.

„A fool with a tool is still a fool.“ – Grady Booch

Im Agenturalltag ist man sehr häufig mit diesem Problem konfrontiert: Zunächst gilt es, Kunden ohne Fachkenntnisse ausführlich zu erklären, warum die erste Priorität nicht darin liegen sollte, Warnmeldungen einfach zu beseitigen. Dann folgt die Erklärung, wo das eigentliche Problem liegt, um dann über eigene Prozesse und Tools die Probleme zu analysieren und die Lösung zu operationalisieren. Und wie das geht, erklärt dieser Artikel.

Beispiele für oberflächliche Betrachtungen in SEO-Tools

Viele SEO-Tools bieten eine wirklich wertvolle Grundlage für die Suchmaschinenoptimierung einer Website. Was wäre ein SEO-Experte ohne Screaming Frog, SISTRIX oder Semrush? Dennoch: Ohne die richtige Deutung der Reports in den Tools und die Weiterverarbeitung in eigenen Prozessen bleibt viel SEO-Potenzial auf der Strecke. An den folgenden drei Beispielen soll das einmal erläutert werden.

Hinweis: Die folgenden Beispiele basieren auf den SEO-Tools SISTRIX, Semrush und Screaming Frog, die der Autor regelmäßig nutzt. Ziel ist es, auf analytische Grenzen hinzuweisen – nicht, die Tools zu kritisieren.

HTML-Title und Meta Description

Meta-Angaben zählen nach wie vor zu den wichtigsten und zugleich einfachsten SEO-Hebeln, die Google bietet. Ein Keyword im HTML-Title beeinflusst das Ranking direkt und erheblich, während eine gut formulierte Meta Description die Klickrate (CTR) in den Suchergebnissen steigern kann. Nun teilen uns sowohl SISTRIX (Abbildung 1), Semrush (Abbildung 2) als auch Screaming Frog (Abbildung 3) folgende Informationen mit:

  • Die Angaben sind zu lang: Dann müssen sie gekürzt werden.
  • Die Angaben sind zu kurz: Dann müssen sie verlängert werden.
  • Die Angaben fehlen: Dann sollten sie ergänzt werden.
  • Die Angaben sind doppelt: Dann sollte die URL gelöscht werden oder was ist zu tun?

Diese Informationen helfen nur bedingt weiter, wenn das Haupt- und die Neben-Keywords der jeweiligen Zielseiten unbekannt sind. Denn folgende Fragen werden ohne diese Information nicht beantwortet:

  • Welches Keyword sollte aus einem zu langen Title gestrichen werden?
  • Welches Keyword sollte bei einem zu kurzen Title hinzugefügt werden?
  • Und wenn es doppelte Title gibt: Welche Seite rankt für das dort verwendete Keyword beziehungsweise welche Seite soll ranken?

Erst die Beantwortung dieser Fragen ermöglicht nachhaltige SEO-Erfolge.

Keyword-Kannibalismus

Keyword-Kannibalismus betrifft nahezu jede Website. In Unternehmen entstehen im Lauf der Zeit immer mehr Inhalte durch verschiedene Personen. Dabei wird die SEO-Abteilung nicht immer als Gatekeeper eingebunden. Dadurch entstehen oft Inhalte, die sich thematisch überschneiden oder nahezu identisch sind. In diesem Fall wird Google beide Inhalte schlechter ranken, als eigentlich möglich, da die Suchmaschine nicht bewerten kann, welcher Inhalt nun der relevantere zum Thema ist. Dieses Problem lässt sich oft durch Konsolidierung, Löschung oder Weiterleitung der Inhalte beheben. In einigen Fällen kann auch eine „Deoptimierung“ genügen, etwa das Entfernen des Keywords aus HTML-Title, H1 und Text.

Semrush (Abbildung 4) und SISTRIX (Abbildung 5) bieten für dieses Problem passende Reports an. Beide Tools analysieren den Keyword-Kannibalismus auf Keyword-Ebene (Semrush bietet zudem einen Seiten-Report, der jedoch wenig hilfreich ist).

Für Projekte mit klar definierten Ziel-Keywords und einer ersten, schnellen Analyse kann diese Methode oft ausreichen und hilfreich sein. Bei größeren, komplexen Projekten mit schwer abgrenzbaren Inhalten – sei es aufgrund diffuser Themen oder historisch gewachsener Strukturen – greift diese Betrachtungsweise zu kurz. Um eine wirklich fundierte Entscheidung treffen zu können, braucht es einen größeren Überblick. Diesen Überblick bekommt man, indem man nicht nur einzelne Keywords miteinander vergleicht, sondern alle Keywords mit Impressionen auf einer URL. Nur so lassen sich die größten Schnittmengen zwischen mehreren URLs identifizieren (Abbildung 6) und Fehlentscheidungen – etwa die falsche Konsolidierung von URL 1 und 3 statt 1 und 2 – vermeiden.

Keyword-Priorisierung

Vor allem größere Domains wie Online-Shops und Content-Portale erfordern eine klare Priorisierung der Themen. Es ist einfach nicht möglich, alle Themen gleichzeitig aufzubauen und zu bedienen. Daher sollten SEO-Experten zunächst folgende Fragen zu ihren Keywords klären:

  • Welche Keywords sind relevant für die eigene Domain? Für welche Keywords sollte zuerst Content aufgebaut oder optimiert werden?
  • Für welche Keywords besteht überhaupt eine realistische Chance auf ein Ranking?
  • Bei welchen URLs mit ihren dedizierten Keywords gibt es die größte Umsetzerwartung?

SISTRIX, Semrush und andere Tools liefern auf diese Fragen keine vollständigen Antworten. Sie liefern zwar Angaben zu Suchvolumen, „Keyword Difficulty“ und Wettbewerb, doch diese Metriken beantworten die zentralen Fragen nicht.

Die Lösung: Probleme aus einem anderen Blickwinkel betrachten und Daten mit eigenen Tools kombinieren

Suchmaschinenoptimierung ist in der Regel komplex. Jede SEO-Fachkraft verfügt über individuelle Vorgehensweisen und Erfahrungen. Daher kann man nicht verallgemeinern, wie die perfekte Lösung für diese typischen SEO-Herausforderungen am Ende aussieht. Dennoch werden im Folgenden Lösungsansätze für die drei Beispiele vorgestellt. Der folgende Abschnitt zeigt, wie sich durch eine intelligente Kombination aus Daten und selbst entwickelten, einfachen Tools praxisnahe SEO-Lösungen umsetzen lassen.

HTML-Title und Meta Description

Für eine präzise Optimierung der Meta-Angaben ist es entscheidend, die Ziel-Keywords der jeweiligen URL zu kennen. Grundsätzlich: Eine Aufstellung der Haupt- und Neben-Keywords für die wichtigsten URLs einer Domain sollten SEO-Experten immer vorliegen haben. Das mag manuelle Arbeit bedeuten, hilft aber ungemein bei der Steuerung der SEO-Performance. Fehlt eine solche Liste, können verschiedene Datenquellen genutzt werden, um sie zu erstellen.

Welche Daten je URL helfen dabei?

  • Top-None-Brand-Keywords aus der Google Search Console (GSC)
  • Top-Keywords aus SISTRIX oder Semrush
  • Keywords im aktuellen HTML-Title und der H1
  • HTML-Title der Top Three rankenden URLs für ein vordefiniertes Keyword

Aus diesen Daten kann man nun beispielsweise passende und erfolgreiche HTML-Title erstellen. Entweder entwickelt man in manueller Arbeit gute HTML-Title mit passenden Haupt- und Neben-Keywords sowie Synonymen oder lässt sich auf dieser Basis Vorschläge von ChatGPT generieren. Unabhängig von der Methode ist eine sorgfältige Prüfung essenziell, damit die richtigen – also zur Seite passenden – Keywords genutzt und doppelte Verwendungen vermieden werden. Denn der HTML-Title hat eine sehr große Bedeutung für das Ranking.

Diese Daten lassen sich entweder manuell sammeln und per SVERWEIS in einer Tabelle zusammenführen oder aber man verwendet das vorbereitete Google-Sheet (Abbildung 7), das ein paar der Prozessschritte automatisiert. Das Google-Sheet verwendet Apps Scripts (unter anderem für die Sortierung der Top-None-Brand-Keywords aus der GSC, für das Suchvolumen), ImportXML-Funktionen (für die aktuellen Titles) sowie eine API zu DataForSEO (einen SEO-Daten-Provider) und OpenAI. Die OpenAI-API wird verwendet, um neue HTML-Title zu generieren. Vorsicht: Die Title werden meist zu lang, da die KI nicht zählen kann.

Alle Funktionen dieses Tools wurden ohne Programmierkenntnisse mit ChatGPT und ein wenig Einlesen erstellt. Sie sind daher nicht perfekt, aber auf der anderen Seite auch für jeden Laien selbst zu erstellen. Das Tool gibt es kostenfrei als Kopiervorlage unter einfach.st/rolltool.

Keyword-Kannibalismus

Um die Herausforderung des Keyword-Kannibalismus zu lösen, ist es, wie bereits erwähnt, wichtig, die Perspektive zu ändern. Statt einzelne Keywords isoliert zu betrachten, ist eine URL-basierte Analyse erforderlich. Die dafür notwendigen Daten liefert die Google Search Console. Sie kennt (fast) alle Keywords, für die eine URL Impressionen oder gar Klicks erzielt hat. Gleicht man nun ab, mit wie vielen Keywords einer anderen URL eine „Überlappung“ besteht, findet man sehr schnell die Seiten, die sich in Gänze kannibalisieren beziehungsweise thematisch sehr nah beieinanderliegen (Abbildung 8).

Um diese Auswertung zu bekommen, haben wir ein Tool auf Basis von Google Colab (Abbildung 9) entwickelt. Google Colab (Colaboratory) ist eine webbasierte Entwicklungsumgebung auf Basis von Jupyter-Notebooks. Nach kurzer Einarbeitung ist sie nicht nur für Profis, sondern auch für Laien nutzbar.

Wie funktioniert es nun für den konkreten Anwendungsfall?

Das Colab-Tool verbindet sich zunächst mit der GSC und zeigt dann eine Oberfläche, die die Auswahl der Domain, des Zeitraums und der Brand-Begriffe erlaubt. Besonders die Berücksichtigung von Brand-Begriffen ist essenziell, da Doppelrankings hier meist erwünscht sind und nicht als Kannibalismus gelten. Anschließend werden die GSC-Daten automatisiert abgerufen und der Überlappungswert wird berechnet. Das Tool kann unter einfach.st/rolltool2 getestet werden. Eine Erläuterung zur Einrichtung ist unter einfach.st/kwkan4 abgelegt.

Einsteiger können alternativ auch mit einem Google-Sheet und Apps Script arbeiten. Ein Apps Script, das die Anzahl der überlappenden Keywords auf Basis eines GSC-Exports (Abbildung 10) berechnet, ist mit ChatGPT in nicht einmal fünf Minuten erstellt. Wer sich nicht daran wagen möchte, kann das fertige Google-Sheet nutzen (Link).

In beiden Beispielen erkennt man auf einen Blick die thematische Nähe der jeweiligen URLs und demnach, dass diese Art der Kombination von Daten einen Mehrwert bietet. Damit lassen sich nicht nur Keyword-Kannibalismus auf URL-Ebene identifizieren und beheben, sondern auch thematisch verwandte Seiten, beispielweise für die Optimierung der internen Verlinkung.

Keyword-Priorisierung

Um die Frage zu beantworten, welches die relevantesten Keywords für die eigene Domain sind, reicht das Suchvolumen nicht aus. Ein einfaches Beispiel: Der Begriff „SEO“ weist zwar über 30.000 Suchanfragen auf, während „SEO Agentur Berlin“ nur 1.300 hat. Dennoch ist es für eine SEO-Agentur in Berlin oft sinnvoller, sich auf den spezifischeren Begriff zu fokussieren. Die Wahrscheinlichkeit, ein gutes Ranking zu erzielen und die richtige Zielgruppe zu erreichen, ist deutlich höher.

Für die meisten Keywords reicht der gesunde Menschenverstand aus, um zu dieser Erkenntnis zu gelangen. Hat man nun aber sehr große Datensätze – beispielsweise eine Keyword-Recherche mit mehreren Tausend Zeilen –, dauert es einfach viel zu lange, nur mit dem Menschenverstand zu arbeiten.

Um sich der Lösung dieser Herausforderung zu nähern, hilft es, gezielte Fragen zu stellen: Woran erkennt man in den Suchergebnissen, dass die Wahrscheinlichkeit für ein eigenes Ranking hoch ist? Erscheinen ein oder mehrere Wettbewerber in den Top Ten, deutet dies darauf hin, dass auch die eigene Domain eine realistische Chance auf ein Ranking hat. Auch ein eigenes Ranking auf Seite zwei macht es wahrscheinlicher, ein Top-Ten-Ranking zu erzielen.

Der nächste Schritt besteht nun darin, diese Daten zu kombinieren. Legt man sich das Ranking der Wettbewerber, das eigene Ranking, das Suchvolumen und im Idealfall auch noch Werte wie Conversion-Rate und durchschnittlicher Warenkorbwert in einem Google-Sheet nebeneinander, hat man alle Informationen für die Relevanzbestimmung gebündelt.

Diese Werte lassen sich im Anschluss mittels eines Scoring-Systems gewichten. Das Scoring kann als Excel- oder Google-Sheets-Formel erstellt werden. Mit der Hilfe von ChatGPT kann man seine Vorstellungen für ein Scoring auch ohne große Formelkenntnis schnell in die Tat umsetzen. Beispiel-Prompt: „Erstelle ein Scoring von 1 bis 100, wobei 100 den höchsten Wert darstellt. Weise folgende Punkte zu: Suchvolumen über 10.000 = 30 Punkte, zwischen 5.000 und 10.000 = 20 Punkte, unter 5.000 = 10 Punkte. Ranking der Wettbewerber: drei Wettbewerber in den Top Ten = 30 Punkte, zwei Wettbewerber in den Top Ten = 20 Punkte …“ Dieses System kann beliebig erweitert und angepasst werden, bis das Scoring in Stichproben die erwarteten Ergebnisse liefert.

Wie das Ganze aussehen kann, zeigen Abbildung 11 und Abbildung 12. Sie zeigen ein Google-Spreadsheet, das über zwei Apps Scripts zuerst das Suchvolumen für die gewünschten Keywords zieht und dann die Rankings der selbst definierten Wettbewerber abfragt (die Funktionen haben eine API-Anbindung an Data4SEO). Mit der Formel aus Abbildung 11 errechnet sich dann automatisch das gezeigte Scoring in Abbildung 12.

Der Link zu dem vorbereiteten, halb automatisierten Spreadsheet aus den Abbildungen findet sich unter einfach.st/rolltool3.

Wie an dem Beispiel zu sehen ist, hilft das Hinzuziehen der Wettbewerbsrankings, um das eigene Keyword-Set in eine sinnvolle Reihenfolge zu bringen.

Fazit

Die dargestellten Beispiele zeigen, dass ein bloßer Blick in gängige SEO-Tools oft nicht genügt, um fundierte Optimierungsentscheidungen zu treffen. Anstatt sofort auf Warnungen zu reagieren, gilt es zunächst, die verfügbaren Daten zu analysieren und sinnvoll zu kombinieren.

Entscheidend ist, eine Idee zu entwickeln, wie ein bestehendes SEO-Problem gezielt gelöst oder optimiert werden kann. Dafür ist es oft notwendig, das Problem aus einer neuen Perspektive zu betrachten. Durch den Perspektivwechsel eröffnen sich neue Möglichkeiten der Analyse und Optimierung.

Sobald eine geeignete Strategie feststeht, lässt sich daraus mit geringem Aufwand ein passendes Tool entwickeln. Den notwendigen Code schreibt ChatGPT oder eine andere KI der Wahl für Laien mittlerweile sehr zuverlässig. Für größere Berechnungen ist dann eine Plattform wie Google Colab die richtige Wahl. Einfachere Tools und Berechnungen lassen sich effizient in Google-Sheets realisieren.