Fünf Jahre „not provided“: Sieben Kennzahlen für die SEO-Erfolgskontrolle jenseits von Keyword-Rankings

Jens Priwitzer
Jens Priwitzer

Jens Priwitzer ist Gruppenleiter und Online-Redakteur bei Performics am Standort Berlin. Performics ist mit über 2.400 Mitarbeitern weltweit eine der größten global tätigen Performance-Marketing-Agenturen. Hier betreut er verschiedene Content- und Content-Marketing-Projekte. Im Performics-Blog schreibt Jens über Kreativität, Ideenfindung, Stil und andere interessante Aspekte des Textens. Früher einmal hat er Germanistik, Geschichte und Philosophie (M. A.) in Rostock, Gießen und Los Angeles studiert.

Mehr von diesem AutorArtikel als PDF laden
Daniel Kaliner
Daniel Kaliner

Daniel Kaliner ist seit 2012 Teil von Performics. Seitdem berät er mit seinen Teams Kunden im Precision-Marketing. Neben der Tätigkeit als strategischer Partner für die Kunden von Performics gehört zu seinen Aufgaben auch die Entwicklung neuer Beratungs- und Optimierungsansätze. Die koordinierte toolbasierte Steuerung von SEO und SEA bildet dabei einen der wichtigsten Schwerpunkte.

Mehr von diesem AutorArtikel als PDF laden

2013 hieß es auf einmal: „Das Keyword ist tot, lang lebe die Landingpage.“ Zuvor hatte der Suchmaschinenbetreiber Google angekündigt, dass Website-Betreiber nicht mehr erfahren würden, über welche Keywords Nutzer auf ihre Landingpages gelangten. Es zeigte sich: Die Keyword-Metriken galten als überholt, bei den Suchmaschinen und den Optimierern wuchs das Interesse an der Nutzererfahrung. Doch wie kann man diese messen – und welche Kennzahlen sind zur SEO-Erfolgskontrolle heute relevant? Daniel Kaliner und Jens Priwitzer haben einige nützliche Kennzahlen für Sie zusammengestellt.

Bis vor fünf Jahren erfuhren Website-Betreiber noch, über welche konkreten Anfragen in der Google-Suche Nutzer auf ihre Seiten gelangt waren. Dass sich dies ändern würde, hatte sich schon 2011 abgezeichnet. Damals hatte Google angekündigt, die Websuche sicherer zu machen und die Suchmaschine auf HTTPS umzustellen. Suchanfragen wurden nun nach und nach SSL-verschlüsselt. Zunächst galt die Funktion nur für Nutzer, die sich bei google.com angemeldet hatten. Im Juli 2013 wurde sie auch für anonyme Nutzer eingeführt.

Für Website-Betreiber hieß das: Sie konnten zwar noch erkennen, dass jemand über die Google-Suche auf ihre Seite gekommen war, aber nicht mehr wie – sprich welche Suchbegriffe sie eingegeben hatten. Bei Google Analytics und anderen Analyse-Tools tauchte immer häufiger die Fehlermeldung „keywords not provided“ auf. Die SEO-Szene geriet in Aufruhr, die Erfolgsmessung mittels Keyword-Daten war in Gefahr.

Matt Cutts, seinerzeit Chef des Web-Spam-Teams bei Google, versuchte, die Lage zu beruhigen. Er erklärte, dass selbst nach dem endgültigen Ausrollen der Verschlüsselung die Not-Provided-Meldung „immer noch im einstelligen Prozentbereich aller Google-Suchen läge“. Doch dem war nicht so. Ende 2013 lag der Anteil von „not provided“ bereits bei über 80 Prozent (siehe Abbildung 1).

Als sich der Staub des „Secure-Search-Updates“ gelegt hatte, wurde sichtbar: Suchmaschinen verabschiedeten sich gerade von einer strikten Keyword-Zuordnung. Im Zuge des Hummingbird-Updates führte Google die semantische Suche ein. Es hatte zum Ziel, die gesamte Suchanfrage zu „verstehen“ und die Suchintention besser zu interpretieren. Einzelne Worte spielen seitdem eine immer geringere Rolle. Nicht die Zuordnung von Keyword und Title nach dem Schlüssel-Schlüsselloch-Prinzip zählte, sondern eine semantische Analyse der Seite als Ganzes und inwieweit der Inhalt eine Suchanfrage beantwortet.

Die Erfolgsmessung im SEO hat sich seitdem gewandelt. Natürlich spielen Keyword-Recherche und das Anlegen entsprechender Landingpages immer noch eine wichtige Rolle. Doch was als „Erfolg“ gilt, orientiert sich längst an einem breiten Spektrum an Nutzersignalen. Bei der Erfolgsmessung geht es daher darum, alle zur Verfügung stehenden Daten auszuwerten, sodass man Einblicke in das Verhalten und die Intention der Nutzer bekommt. Die Reihe an Metriken, die man nutzen kann, reicht von „harten“ SEO-Metriken bis zu eher „weichen“ Faktoren.

1. Organischer Traffic

Im SEO versteht man unter organischem Traffic alle Nutzer, die über eine Suchmaschine auf eine Website oder Landingpage gelangen. Nicht mitgezählt werden alle Besucher, die auf eine bezahlte Anzeige oder einen Link in den sozialen Medien geklickt bzw. die Website direkt aufgerufen haben. Eine, wenn nicht die zentrale Aufgabe von SEO ist es, den organischen Traffic zu erhöhen: Je besser eine Landingpage in den SERPs (den organischen Suchergebnissen) rankt, desto mehr organischer Traffic ist zu erwarten.

Über die Search Console und Google Analytics kann man sich den gesamten organischen Traffic auf der Website ansehen. Diesen sollte man nach Landingpage aufschlüsseln. Auf diese Weise findet man heraus, welche Seiten gut ranken – und bei welchen Optimierungsbedarf besteht. Um Websites international besser auszurichten, kann man die Herkunftsländer genauer identifizieren. Auch die Aufschlüsselung nach Gerät ist hilfreich: Sind die Zugriffszahlen vom Smartphone deutlich höher als vom Desktop-Computer, sollte die Website unbedingt für mobile Endgeräte optimiert sein.

Wobei heutzutage eine Optimierung für Mobilgeräte schon längst eine Pflichtaufgabe für jeden Website-Betreiber ist. Zum einen, weil die Nutzer längst häufiger über das Smartphone ins Internet gehen als über den Desktop-Computer. Und zum anderen, weil auch Google mit der Umstellung auf den „Mobile-First-Index“ alle Websites aus der Perspektive eines Smartphone-Nutzers indexiert. Seiten, die für Mobilgeräte optimiert wurden – zum Beispiel mit Responsive Design – werden dann auch bei der mobilen Suche bevorzugt angezeigt.

In der Search Console lassen sich leider nur Daten eines begrenzten Zeitraums anzeigen; nur die letzten 90 Tage können analysiert werden. Zudem ist nur ein Graph möglich. Um zum Beispiel die Entwicklung des organischen Traffics tagesaktuell im Vergleich zum Vorjahrestag anzeigen zu lassen, braucht man eine andere Lösung. Dazu kann man beispielsweise das Google Data Studio nutzen (siehe Abbildung 2). Durch den kontinuierlichen Datenimport und die Möglichkeit, individuelle Graphen einzurichten, kann man sich einen passenden Report selbst erstellen.

2. Indexierte Seiten

Nur Landingpages oder Unterseiten, die indexiert wurden, können überhaupt in der Google-Suche ausgespielt werden. Bis Google eine neue Website gecrawlt hat, vergehen aber zwischen vier Tagen und sechs Monaten. Auch neue Unterseiten oder aktualisierte Inhalte werden nicht sofort erfasst, sondern erst dann, wenn der Googlebot das nächste Mal die Website besucht. Sollte die Anzahl der indexierten Seiten über einen längeren Zeitraum gleich bleiben, kann man Google durch die manuelle Übermittlung einer aktualisierten Sitemap signalisieren, dass ein erneutes Crawlen sinnvoll ist.

Die Search Console zeigt zudem an, wie viele Seiten pro Tag in den letzten drei Monaten gecrawlt wurden. Gerade Websites mit vielen Unterseiten sollten auch diesen Wert im Blick behalten. Sollte nur ein geringer Prozentsatz aller verfügbaren Unterseiten gecrawlt werden, könnte dies auf Probleme mit dem „Crawling-Budget“ hindeuten: Nimmt das Crawling zu viele System-Ressourcen in Anspruch – zum Beispiel aufgrund der Navigation per Filter oder zu vieler Fehlermeldungen – bricht der Googlebot den Vorgang ab, bevor alle Unterseiten erfasst sind.

In der Search Console kann man sich zudem alle Crawl-Fehler anzeigen lassen. Dort werden die Unterseiten aufgeführt, die der Googlebot nicht erreichen konnte. Die gemeldeten Fehler sollten umgehend behoben werden, damit Google eine korrekte Version der betroffenen URLs in den Index aufnehmen kann.

3. Bounce-Rate

Die Bounce-Rate – auf Deutsch: Absprungrate – gibt an, wie viele Nutzer die Website nach dem Aufrufen einer Landingpage oder der ersten Unterseite wieder verlassen haben. Eine hohe Bounce-Rate wird im Allgemeinen als schlechter Wert angesehen. Denn die jeweilige Landingpage oder Unterseite hat es nicht geschafft, das Interesse des Nutzers an weiteren Inhalten auf der Website zu wecken, sodass sich dieser nicht weiter auf der Website umsieht und demzufolge auch nicht über einen internen Link auf eine andere Unterseite gelangt.

Ganz so einfach ist es im Detail dann aber doch nicht. Denn es gibt Unterseiten, die trotz hoher Bounce-Rate die gesetzten Ziele erfüllen. Typische Beispiele sind Unterseiten mit Öffnungszeiten oder Anfahrtsbeschreibungen. Hier braucht der Nutzer gar nicht unbedingt tiefer in die Website einzutauchen.

Allerdings sind solche Unterseiten eher die Ausnahme als die Regel. Eine Landingpage, über die ein Nutzer ein E-Book downloaden oder einen Newsletter abonnieren kann, sollte beispielsweise eine möglichst niedrige Absprungrate haben. Ein hoher Wert signalisiert, dass der Nutzer sich nicht ausreichend angesprochen fühlte, die Inhalte als für ihn irrelevant erachtete oder vielleicht auch mehr Informationen preisgeben musste, als ihm lieb war.

Grundsätzlich sollte man daher für jede Seite genau festlegen, welche Handlung der Nutzer auf der jeweiligen Seite ausführen soll: Muss er etwas tun und wird dann zu einer zweiten Seite weitergeführt (Anmeldung-Seite > Danke-schön-Seite)? Oder soll er einfach die gesuchten Informationen erhalten und die Website wieder verlassen (dürfen)? Im zweiten Fall sind weitere Metriken wie die Scroll-Tiefe (siehe weiter unten) notwendig, um den Erfolg einer Seite einschätzen zu können.

Ist die Bounce-Rate dennoch zu hoch, kann man beispielsweise durch interne Links den Nutzer gezielt auf andere Seiten führen. Oder man postet eine Übersicht mit interessanten oder neuen Artikeln in einer Sidebar. Auch eine Verbesserung der Lesefreundlichkeit eines Textes vermag die Bounce-Rate zu reduzieren.

Zudem sollte man sich das Keyword-Set der Landingpage bzw. Unterseite ansehen: Werden nur Keywords verwendet, die auch dem Inhalt der Seite entsprechen? Verspricht die Überschrift etwas, das der Text nicht hält, steigen Nutzer sehr wahrscheinlich wieder aus. Generell sind Seiten, die auf kurze Keywords („short tail“) optimiert sind, anfälliger für hohe Absprungraten, weil die Nutzer noch unspezifisch suchen. Bei Long-Tail-Keywords sieht das anders aus. Hier ist zwar das Suchvolumen niedriger, doch die Nutzer haben eine genauere Vorstellung davon, was sie suchen.

4. Click-Through-Rate

Die Google Search Console zeigt zum einen die „Impressions“ an, also wie oft die jeweilige Landingpage oder Unterseite den Nutzern in den Suchergebnissen angezeigt wird. Zum anderen werden die „Klicks“ ermittelt, also wie häufig Nutzer die Unterseite ansteuern. Aus beiden Werten wird die Klickrate – englisch: Click-Through-Rate oder CTR – ermittelt. Wurde beispielsweise die URL 100-mal angezeigt und haben 15 Nutzer darauf geklickt, beträgt die CTR 15 Prozent.

Die Klickrate im SEO ist nicht dasselbe wie die gleichnamige SEA-Metrik bei bezahlten Anzeigen (Google Ads). Im SEO zeigt die CTR an, welche Unterseiten die Nutzer wie häufig in den organischen Suchergebnissen angeklickt haben. Dabei muss man beachten, dass zwischen der CTR und der durchschnittlichen Positionierung in den SERPs eine Korrelation besteht. Bei guten Positionierungen sieht man auch eine relativ hohe CTR, bei schlechten Rankings fällt der Wert niedriger aus.

An der CTR kann man ablesen, wie attraktiv das Suchergebnis (Snippet) für den Nutzer ist und ob Handlungsbedarf besteht; bei einem niedrigen Wert sollte man etwa Title und Meta Description optimieren. Das ist vor allem dann notwendig, wenn auch die Bounce-Rate hoch ist, die Verweildauer jedoch niedrig. Das ist nämlich ein Hinweis darauf, dass die Nutzer direkt nach dem Besuch der Landingpage oder Unterseite wieder abspringen. Ein Grund dafür könnte sein, dass der Inhalt der Seite nicht mit der ausgewiesenen Description übereinstimmt. Diese muss dann angepasst werden.

5. Scroll-Tiefe

Um genauer zu verstehen, wie und wie lange sich Nutzer mit den Inhalten einer bestimmten Webseite beschäftigen, kann man die Scroll-Tiefe heranziehen. Der Vorteil: Während zum Beispiel Absprungrate oder auch Besuchsdauer und Seitenaufrufe pro Sitzung das Nutzerverhalten auf einen einzigen Wert reduzieren, erhält man mit der Scroll-Tiefe eine konkretere Übersicht, bis zu welchem Punkt der Nutzer den Inhalt einer Seite konsumiert hat.

Ein Beispiel, um dies zu verdeutlichen: Ein Nutzer kommt über die Google-Suche auf Artikel XY und beschäftigt sich mit dem Inhalt rund zwei Minuten. Er ruft keine weitere Seite auf, sondern verlässt unsere Artikelseite wieder. Bei Google Analytics würde nun die Sitzungsdauer „125 Sekunden“ betragen, die Bounce-Rate „100 Prozent“. Allerdings handelt es sich bei dem Artikel um einen recht langen Ratgeber, der im oberen Teil allgemeine Tipps gibt, weiter unten aber die eigenen Produkte vorstellt. Daher wäre es gut zu wissen, ob der Nutzer nach den allgemeinen Ratschlägen ausgestiegen ist oder auch die Produktempfehlungen wahrgenommen hat.

Der Google-Tag-Manager bietet eine einfache Möglichkeit, das Scroll-Verhalten zu überprüfen. Dafür muss man zunächst einen sogenannten Trigger einrichten. Der Trigger legt einen Punkt fest, an dem ein Ereignis ausgelöst wird, beispielsweise wenn der Nutzer über 20 Prozent der Seite gescrollt ist. Dieses Ereignis kann dann bei Google Analytics in Form eines importierten „Tags“ ausgewertet werden. Sinnvoll ist es, mehrere Ereignisse wie 20/40/60/80/100 Prozent festzulegen.

Sollte sich herausstellen, dass ein bestimmter Artikel nur „angelesen“ wird und kaum jemand weiterscrollt, sollte man den Content auf der Seite genauer betrachten: Ist er auf das richtige Keyword optimiert, ist also der thematische Schwerpunkt klar erkennbar? Auch eine leserunfreundliche Gestaltung (keine erkennbare Gliederung, lange Absätze, zu geringe Abstände zwischen den Elementen …) kann Nutzer abschrecken.

6. Conversion-Rate

Die Conversion-Rate gibt an, wie viel Prozent der Nutzer, die eine Landingpage oder Unterseite besucht haben, auch tatsächlich die dafür festgelegte Handlung getätigt haben. Dabei erfasst die Conversion-Rate nicht nur abgeschlossene Käufe (für E-Commerce-Unternehmen natürlich am interessantesten), sondern auch ausgefüllte Kontaktformulare, Anmeldungen zu Newslettern oder wenn Inhalte über integrierte Social-Media-Buttons auf den bevorzugten Kanälen des Nutzers geteilt werden.

Damit die Conversion-Rate bei Google Analytics messbar wird, muss man zunächst ein Zielvorhaben definieren. Dieses legt man individuell für jede Landingpage oder Unterseite fest, zum Beispiel einen Mindestkaufbetrag oder eine bestimmte Zeitspanne, die der Nutzer vor dem Bildschirm verbringen soll. Auch diesem weist man einen Geldbetrag zu. Unterschiedlichen Aktionen auf einer Seite – Klick auf Link, Teilen via Social Media, Kauf etc. – lassen sich eigene Werte zuweisen.

Führt nun ein Nutzer auf der Seite die gewünschte Aktion durch, wird diese Conversion erfasst und mit dem entsprechenden Geldwert abgespeichert. Im „Zielbericht“ werden dann die durchschnittlichen Conversion-Rates angezeigt. Durch den Vergleich ähnlicher Seiten zeigt sich, welche besser auf die Intention und die Bedürfnisse des Nutzers abgestimmt ist (und welche nicht).

Die Filter-Möglichkeiten bei Google Analytics erlauben die Segmentierung nach Landingpage, nach Herkunft der Nutzer oder nach verwendetem Gerät. Sind zum Beispiel die Conversion-Rates für Desktop-Nutzer deutlich höher als die von Smartphone-Nutzern, ist das ein Indiz dafür, dass die Seite nicht für mobile Nutzer geeignet ist.

7. Ladegeschwindigkeit

Zu den unterschätzten SEO-Metriken gehört die Lade- oder Seitengeschwindigkeit. Darunter versteht man die Geschwindigkeit, mit der eine Landingpage oder Unterseite vom jeweiligen Endgerät geladen werden kann. Seit 2010 ist die Ladegeschwindigkeit für alle Suchen von Desktop-Computern aus ein Ranking-Faktor, mit dem PageSpeed-Update von 2018 sind auch alle Suchen von Smartphones betroffen.

Noch ist nicht klar, welche Auswirkungen das Update auf die Rankings in den Google-Ergebnissen haben wird. Es zeichnet sich aber bereits ab, dass sich nicht nur langsame Seiten im Ranking verschlechtern, sondern dass sich durch Geschwindigkeitsoptimierungen auch Ranking-Vorteile erzielen lassen. Doch abgesehen davon ist es prinzipiell sinnvoll, die Ladegeschwindigkeit für den Nutzer zu verbessern. Denn je schneller eine Seite lädt, desto mehr Umsatz lässt sich mit dieser erzielen.

Google stellt zwei Tools bereit, mit denen man die Seitengeschwindigkeit einschätzen kann: Die PageSpeed Insights (https://developers.google.com/speed/pagespeed/insights) (siehe Abbildung 3) geben einen guten Überblick über die allgemeine Performance der ausgewählten URL, während Lighthouse die technischen Eigenschaften – Rendering der Seite, Größe von Bilddateien etc. – genau analysiert. Lighthouse ist Teil der Chrome-Entwicklertools, zu öffnen unter „Einstellungen“ > „Weitere Tools“ > „Entwicklertools“ > „Audits“.

Um eine Landingpage oder Unterseite schneller zu machen, empfiehlt es sich, der Devise „weniger ist mehr“ zu folgen. Das bedeutet zum Beispiel, die Anzahl der Bilder auf das nötige Minimum zu begrenzen, denn schließlich gehören diese Dateien zu den größten auf einer Seite. Auch die Ausführung von JavaScript, insbesondere komplexe, extern ausgeführte Skripts, oder die Einbindung von Tracking-Programmen sollte reduziert werden. Zudem empfiehlt sich die Umstellung auf HTTP/2, da das Protokoll das parallele Laden bestimmter Ressourcen ermöglicht.

Fazit

Es gibt eine Unmenge an Metriken, die man zur Messung des SEO-Erfolgs hinzuziehen kann. Rankings allein sagen nicht viel aus, das war auch schon zu den Zeiten so, als Google noch die Keywords anzeigte, über die Nutzer auf die eigene Landingpage oder Unterseite gekommen waren. Mittlerweile hat sich der Google-Algorithmus stark dem Nutzerverhalten angepasst. Alle Updates der vergangenen Jahre zielten darauf ab, die Verhaltensänderungen bestmöglich abzubilden, Stichwort „mobile-freundliche Suche“.

Auch wenn es wie eine Binsenweisheit scheint: Alle vorgestellten Metriken sollte man nicht isoliert betrachten, denn das kann zu falschen Einschätzungen führen. Entscheidend ist vielmehr das Gesamtbild. Zudem ist ein regelmäßiges Reporting (mindestens monatlich, gegebenenfalls wöchentlich) notwendig, um alle Veränderungen rechtzeitig zu erkennen und darauf zu reagieren. Dann ist auch der zukünftige SEO-Erfolg sichergestellt.