Und Google sprach: Klicks sind (doch) wichtig

Stephan Czysch
Stephan Czysch

Seit Mai 2025 ist Stephan Inhouse-SEO bei mobile.de und berät parallel Unternehmen dabei, bessere Websites zu erstellen und Online-Marketing kanalübergreifend anzugehen. Er spricht regelmäßig auf Konferenzen, hält (Inhouse-)Schulungen und entwickelt SEO-Tools wie searchanalyzer.io für eine datengestützte Suchmaschinenoptimierung mithilfe der Google Search Console.

Mehr von diesem Autor

Re-Ranking, Navboost, Twiddler und Co. sind seit Spätsommer 2023, und speziell durch den Google-Leak, in aller Munde. Was Google lange Zeit abstritt, findet sich im Leak: Klicks haben einen Einfluss auf das (Re-)Ranking. Eigentlich sollte das nicht verwundern, da bei Google Ads die erwartete Klickrate und auch die Nutzererfahrung auf der Seite schon lange Zeit Teil der Anzeigenrelevanz waren. Warum diese Daten als Faktor für die organischen Rankings ausklammern, wenn Google seit jeher Klickdaten erfasst und die Daten in der Google Search Console zur Verfügung stellt? Der Fokus auf eine gute Klickrate Und Google sprach: Klicks sind (doch) wichtig kombiniert mit zufriedenen Nutzern sollte spätestens jetzt die reine Betrachtung von Klickanzahl, Rankings und Sichtbarkeit ablösen. Denn Rankings ohne ausreichende „goodClicks“ und „lastLongestClicks“ führen dazu, dass der Seite eins bei Google Goodbye gesagt werden muss. Wie eine unterdurchschnittliche CTR erkannt werden kann, erklärt Stephan Czysch.

Grundsätzlich arbeiten Google und alle Wettbewerber mit identischem Ausgangsmaterial, nämlich den einzelnen Websites. Deren Quelltext wird analysiert, um das „Worum geht es hier?“ zu „verstehen“. Denn nur so können zu Suchanfragen passende Dokumente in möglichst idealer Reihenfolge präsentiert werden. Finden Suchende mithilfe der Suchmaschine, was sie finden wollten, dann kommen sie immer wieder und durch Anzeigen lässt sich mit dem kostenfreien Angebot Geld verdienen – und das im Fall von Google wirklich gut. Im Rahmen der Gerichtsverfahren in den USA sind 2023 ein paar sehr interessante Google-Präsentationen an die Öffentlichkeit gelangt, die – wenngleich schon mehrere Jahre alt – einen Einblick in die Möglichkeiten von Google (zu der Zeit der Erstellung) ermöglichen. Ausgewählte und für SEO-Experten als wichtig eingestufte Dokumente sind beispielsweise unter einfach.st/leak2 verlinkt, alle können unter einfach.st/justicegov gefunden werden. Kasten am Rand: Die Daten, die Google in der Search Console für eine Domain liefert, sind nicht immer wirklich einfach richtig zu interpretieren. Dazu braucht man einiges an Hintergrundwissen und gelegentlich auch hilfreiche Tools. Durch die neuesten Erkenntnisse aus der Aufarbeitung der Google-Leaks wurde deutlich, dass die Klickrate (CTR) auf die Suchergebnisse ein ganz entscheidender Faktor für ein dauerhaft gutes Ranking darstellen kann. Über diverse Algorithmen kommt man bei Erfolg zwar zunächst auf die erste Seite der Suchergebnisse. Aber wenn zu wenig Suchende bezogen auf die Position des Ergebnisses klicken, sinkt die CTR unter den erwarteten Wert und das Ranking kann sich schnell und dauerhaft verschlechtern. Eine planvolle und richtige Analyse der Metrik „CTR“ ist also Pflicht und gehört auf jeden Fall in das Standardrepertoire jedes guten SEO-Experten. Das nötige Know-how für die Interpretation dieser Metrik findet sich hier im Beitrag. In einer Präsentation mit dem Namen „Life of a Click (user-interaction)“ aus dem Mai 2017, auf Deutsch in etwa „Die Bedeutung eines Klicks (Nutzer-Interaktion)“, zu finden unter einfach.st/justicegov2 (PDF), taucht die in Abbildung 1 zu sehende Folie auf, in der die Nutzerinteraktionen als eine der drei Säulen des Rankings genannt werden. Die beiden anderen Säulen sind die „klassischen“ On-Page-Signale (Body) und Off-Page-Signale (Anchors), auch bekannt als „Relevanz“ und „Popularität“. Dass viele Seiten bereits bei der On-Page-SEO ungenutzte Potenziale haben, habe ich in der letzten Website-Boosting-Ausgabe im Beitrag zur Keyword-Recherche für Online-Shops beschrieben. Abbildung 1: In einer Google-internen Präsentation aus dem Mai 2017 tauchen Nutzersignale bereits als eine der drei Ranking-Säulen auf (Quelle: einfach.st/justicegov2). In weiteren Präsentationen wird nochmals genauer darauf eingegangen, welche Nutzerinteraktionen möglich sind. So nennt Google unter anderem „lesen“, „scrollen“, „mit der Maus überfahren“ und natürlich „Klicks“. Wir hatten es schon: Google möchte, wie andere Suchmaschinen auch, möglichst gute Ergebnisse liefern, damit Nutzer immer wieder kommen. Von daher ist es ein gutes Signal, wenn Suchende nach einem Klick auf ein Ergebnis nicht direkt wieder zurück zur Suche springen und ein anderes Ergebnis anklicken – denn dann haben sie wohl nicht das gefunden, was gesucht wurde. Sowohl für Google als auch die angeklickte Website ist das suboptimal. Hinsichtlich der Bewertung von „Zurück zur Suche“ kann die Anpassung der Suchanfrage auch ein „neutrales Feedback“ sein, da zum Beispiel die zuvor gestellte Suchanfrage nicht spezifisch genug war, ohne dass das etwas mit den angezeigten Seiten zu tun hat. Gute Interaktionen sorgen für langfristigen SEO-Erfolg Wie durch die Dokumente immer klarer wird, sammelt Google fortlaufend Nutzerfeedback und nutzt diese Daten wiederum für das (zukünftige) Nachjustieren der Rankings (Re-Ranking). Diese Signale können sich auf einzelne Seiten oder beliebige „Gruppierungen“ beziehen, von einzelnen Verzeichnissen, Subdomains oder der Domain insgesamt. Wie sagte es Hanns Kronenberg bei seinem Vortrag zum Thema Re-Ranking auf der Campixx so einprägsam: Die klassische SEO ist vergleichbar mit dem Qualifying eines Autorennens. Hier fährt jeder (fast) für sich allein und stellt sicher, dass Google ein Dokument überhaupt als Ergebnis in Betracht zieht. Die Nutzerabstimmung in den SERPs ist dann das Rennen, in dem mehrere Autos gegeneinander fahren. Interessant ist in diesem Kontext, dass Google immer wieder E-E-A-T hochhält, aber scheinbar nicht in der Lage ist, ein Gutscheinverzeichnis auf einer Nachrichtenseite als „gehört thematisch nicht zu den Inhalten, zu der die Domain eine hohe Expertise hat“ zu identifizieren und dann im Ranking gesondert zu behandeln. So schnell wie bisher dürften dann nämlich solche neuen Content-Angebote nicht auf die vorderen Plätze schießen. Aber das ist ein ganz eigenes Thema, genauso wie die Frage, ob Google vorschreiben darf, welche Inhalte auf einer Domain veröffentlicht werden dürfen. Doch was bedeutet die Nutzung von Nutzerinteraktionen für die SEO? Vor allem Folgendes: Beschränken sich viele Suchmaschinenoptimierer aktuell darauf, optimierte Seiten zu erstellen und im Nachgang den Erfolg in Form von Ranking-Positionen zu analysieren, kommt mit dem Thema Nutzerfeedback ein weiterer Analysebereich hinzu: Wo ist meine Klickrate zu niedrig und die Besuchsdauer zu kurz? Woran könnte das liegen? Denn diese ausbleibenden Klicks, oder im Fall einer kurzen Besuchsdauer „badClicks“, können mittelfristig dafür sorgen, dass ein im Qualifying eigentlich relevantes Dokument, oder die gesamte Website, auf den hinteren Plätzen erscheint. Die Einflussfaktoren auf die Klickrate Rein mathematisch ist die Klickrate als Verhältnis zwischen Klicks und Impressionen leicht zu berechnen, doch es gibt eine Reihe von erschwerenden Einflussfaktoren, um die tatsächlich erreichte Klickrate als „gut“ oder „zu gering“ zu identifizieren. Ein paar der wichtigsten Einflussfaktoren werden im Folgenden beschrieben: - Ranking-Position beziehungsweise die genaue Pixelposition in den Suchergebnissen (siehe meinen Artikel in Website Boosting 81 „Pixelrank – wo stehst du wirklich?“), um den unterschiedlichen SERP-Layouts Rechnung zu tragen - Daran schließt sich direkt der Aspekt Endgerät an, denn auf derselben Position ist die Klickrate auf Mobilgeräten im Vergleich zu Desktop häufig niedriger. - Ergebnistyp, in dem eine Seite erscheint. In der Google Search Console ist es nicht möglich, ein Ranking innerhalb der Bilderbox in den normalen Webergebnissen einfach zu erkennen. - Suchintention hinter der Suchanfrage. Für den eigenen Markennamen ist die Klickrate deutlich höher als für eine generische Suchanfrage. Deshalb sollte die Klickrate immer innerhalb vergleichbarer Segmente analysiert werden. - Angezeigtes SERP-Snippet, das häufig nicht das definierte SERP-Snippet bestehend aus Seitentitel und Meta Description ist, sondern zum Beispiel ein verkürzter Seitentitel und ein Textausschnitt aus der Seite. Unter anderem Sistrix bietet mit der Funktion „SERP-Snippets“ die Möglichkeit, das tatsächlich angezeigte Snippet zu identifizieren. - Snippets der Konkurrenz, die gegebenenfalls durch den Einsatz von strukturierten Daten oder mit Bildern in den Suchergebnissen erscheinen und dadurch mehr Platz und Aufmerksamkeit erzielen - Markenbekanntheit beziehungsweise -präferenz. Wenn ich bei Anbieter A auf Platz zwei bisher keine guten Erfahrungen gemacht habe, bei Anbieter B auf Platz vier aber schon, dann kann das die Klickrate beeinflussen. - Ergebnisse vor (und nach) dem eigenen Suchergebnis. Ein visuell starkes Suchergebnis wie Bilder- oder Produktgrids lenken die Aufmerksamkeit häufig vom direkt darunter, darüber oder dazwischen stehenden organischen Ranking weg. Kasten am Rand Tipp: Mit dem kostenlosen Chrome-Plug-in SERP Snippet Extractor des Autors (einfach.st/snippetextract) lassen sich die tatsächlich angezeigten Snippets aus der Google-Suche auslesen, inklusive der Datenpunkte über strukturierte Daten und der tatsächlichen Position auf dem Endgerät. SERP-Nutzerfeedback mit der Google Search Console auswerten: die Grundlagen Nach dem Blick auf einige Einflussfaktoren auf die Klickrate ist es Zeit für eine kurze Zeitreise. Bereit? Wie wild SEO und Online-Marketing um das Jahr 2010 herum doch waren: In der Webanalyse konnte nachvollzogen werden, über welche Suchanfragen Nutzer auf der Website eingestiegen sind und was sie auf der Seite gemacht haben. Dieser Datenpool steht auf Keyword-Ebene nicht mehr zur Verfügung. Zwar liefert Google in der Google Search Console für einen Teil (!) der Klicks die dazugehörigen Suchanfragen, was allerdings auf der Website passiert, ist den Suchanfragen nicht mehr zuweisbar. Leider wissen viele SEO-Experten gar nicht, wie wenig Klicks überhaupt Suchanfragen in der GSC zugewiesen werden können. In Abbildung 2 ist das beispielhaft zu sehen: Von insgesamt 19 Klicks auf eine Unterseite liefert nur Google für zwei Klicks die dazugehörigen Suchanfragen. In diesem Extremfall ist die Keyword-Abdeckung entsprechend 2/19 = 10,5 %. Oder andersherum: Über welche Suchanfragen die 17 anderen Klicks entstanden sind (= 89,5 %!), ist unklar. Diese geringe Keyword-Abdeckungsquote ist ein Extremfall, aber in der Regel fehlen für viele Websites für zwei Drittel der Klicks die dazugehörigen Suchanfragen in der GSC. Abbildung 2: Nur zwei von 19 Klicks können Suchanfragen zugewiesen werden. Kasten am Rand: Das ebenfalls kostenlose Chrome-Plug-in „GSC Helper“ (http://einfach.st/gschelper) des Autors kann zum Zeitpunkt des Erscheinens dieser Ausgabe bereits die Keyword-Abdeckung anzeigen. Nach der ersten Tücke mit den Daten der Google Search Console kommt direkt ein zweiter Aspekt mit ins Boot: der Durchschnitt. Schauen wir dazu einmal auf Abbildung 3: bei einem Durchschnittsranking auf Platz 25,3 eine satte Klickrate von 47,8 %. Gar nicht mal so schlecht für ein Ranking auf Seite drei, oder? Wie hoch wohl die Klickrate auf Platz eins wäre? 250 %, mindestens! Spaß beiseite. Bevor die Auflösung kommt: Was könnte der Grund für diese Klickrate sein? Abbildung 3: Ja, auch auf Platz 25,3 lässt sich eine CTR von 47,8 % erreichen! Grundsätzlich gibt es mehrere mögliche Erklärungen (wie sagt der SEO-Experte immer so schön: „It depends!“). Die beiden gängigsten sind: 1. Das Ranking hat sich im Zeitraum deutlich verschlechtert und die Klicks gab es zu der Zeit, als das Ranking auf Seite eins war. 2. Es gab Impressionen in unterschiedlichen Ländern. In diesem Fall ist es kein Ranking-Rückgang, sondern die URL hat in vielen Ländern Impressionen erzielt, dort aber auf den hinteren Plätzen. So ist die „tatsächliche“ Klickrate im für mich relevanten Land Deutschland für die Suchanfrage auf Platz eins sogar 73,3 % – und die Rankings in anderen Ländern ziehen sowohl die Klickrate als auch die Position nach unten. Abbildung 4: Durchschnittswerte sind immer nur mit Vorsicht zu genießen. Damit du nicht auf Durchschnittswerte hereinfällst und falsche Schlüsse ziehst: Grenze für CTR-Analysen immer auf dein Hauptland ein! Auch eine Betrachtung der Tageswerte beziehungsweise eines eher kurzen Zeitraums sollte bedacht werden, da so Ranking-Veränderungen schneller identifiziert werden können als über den allgemeinen Durchschnittswert. Ausklammern solltest du Zeiträume, in denen es größere Google-Updates gab. Durch Betrachtung von Tageswerten lassen sich zudem „Page 1 Tests“ identifizieren, also wenn Google eine Seite (temporär) auf der ersten Seite anzeigt und austestet. Leider ist durch den Zeitverzug in der Google Search Console der Test womöglich schon vorbei, bevor man ihn wirklich bemerkt hat. Was also tun? Wer proaktiv SEO betreibt, also einen klaren Plan verfolgt, für den ändert sich eigentlich nichts. Denn in diesem Fall wurden die wichtigen Seiten identifiziert und die Seiten inklusive Snippets bestmöglich optimiert und die Darstellung der Snippets wurde kontrolliert. Wie? Indem das angezeigte Snippet der eigenen Seite für die anvisierten Suchanfragen kontrolliert und zudem mit der Konkurrenz verglichen wird. Das geht auch schon, wenn man nicht auf Seite eins rankt – denn Google hat auch eine Seite zwei, und sogar weitere! Wichtig ist hier: Trotz ähnlicher Nutzerintention ist es quasi ausgeschlossen, dass das optimierte Snippet für alle erdenklichen Keyword-Variationen angezeigt wird. Das ist auch gar nicht notwendig, da vor allem die Top-Three- bis Top-Five-Suchanfragen eines Artikels in der Regel den Großteil der Klicks und Impressionen erzeugen. Hier sollte das Snippet möglichst gut aussehen. Und auch die Einstiegsseite selbst kommt bei der proaktiven SEO unter die Lupe: Würde mich die Seite abholen, wenn ich nicht für die Website arbeiten würde und diese Suchanfrage gestellt hätte? Wie ist das Content-Design? Wie die Bildsprache? Welche Seiten sind (sichtbar) verlinkt? Eine reine Checklisten-SEO nach „Na ja, Keyword ist an allen relevanten Stellen hinterlegt“ ist nicht genug! Baut zu jeder Zeit die bestmögliche Nutzererfahrung, die gerade möglich ist! Bei der reaktiven SEO wird in der Regel eher nach dem Motto „Schauen wir halt mal, was gut gefunden wird“ verfahren. Hier kann es dann schneller passieren, dass durch suboptimale Snippets eine niedrige CTR erzielt wird oder der Inhalt auf der Seite eher mäßig ist. Dadurch bekommt nicht nur Google das Gefühl, dass andere Seiten doch relevanter sind. Also zurück auf die ursprüngliche Position mit der Seite im Rahmen des Re-Rankings. Nach diesem Ausflug zurück zu den weiteren möglichen Stolperfallen bei der Arbeit mit GSC-Daten: Auch zwischen den unterschiedlichen Geräten kann es einen massiven Unterschied in der Klickrate geben. Von daher ist es in der Regel empfehlenswert, den Traffic zusätzlich nach Gerät zu unterscheiden. Schauen wir auch hier noch einmal auf ein konkretes Beispiel (Abbildung 5). Für die Suchanfrage ist trotz (quasi) identischer Position die CTR auf Mobilgeräten mit 26 % (Desktop) und 42,9 % (Mobil) deutlich unterschiedlich, wobei sich auch die Impressionen deutlich unterscheiden. Abbildung 5: Auch zwischen den Geräten kann sich die Klickrate deutlich unterscheiden. Hieraus ergibt sich direkt ein weiteres Learning: Zu geringe Impressionen können die CTR ebenfalls verfälschen, selbst wenn dasselbe Gerät analysiert wird. Von daher lohnt es sich, entweder einen repräsentativen unteren Schwellenwert für das eigene Keyword-Set zu definieren und alle Suchanfragen unterhalb des Schwellenwerts auszuklammern und/oder nur mit gewichteten CTRs zu arbeiten. Was auch nicht passieren sollte, ist der Vergleich zwischen Äpfeln und Birnen. Wer die Klickrate für den eigenen Markennamen mit generischen Suchanfragen oder Fremdmarken vergleicht, der wird daraus keine sinnvolle Ableitung generieren können. Die Suchanfragen beziehungsweise die Nutzerintention sollten vergleichbar sein, weil sich dadurch die Layouts der Suchergebnisse stärker ähneln. Denn dass die Klickrate für ein transaktionales Suchergebnis mit vier Anzeigen und vielen Anzeigenerweiterungen deutlich geringer ist als für eine informationale Suche ohne Anzeigen, sollte niemanden überraschen. Die 100 % saubere Lösung wäre es, vorher das SERP-Layout zu erfassen und nur wirklich ähnliche Suchergebnisse zu vergleichen, beispielsweise anhand der Pixelposition. Wie das geht, ist in der Präsentation meiner ehemaligen Mitarbeiterin bei Dept, Johanna Maier, unter einfach.st/pklrank zu sehen. Doch auch die Pixelposition hat Tücken, da diese wiederum von den verwendeten Geräten und deren Pixeldichte abhängig ist, sich also zum Beispiel zwischen Apple- und Android-Smartphones unterscheiden kann. Und es müssen auch nicht immer alle Anzeigen-Slots tatsächlich belegt sein. Da das jetzt viele Informationen über die Tücken der GSC waren, einmal die Kurzzusammenfassung: - Segmentierung ist wichtig und gilt sowohl für Suchanfragen, Seitentypen als auch Geräte, denn die CTR wird durch die im vorherigen Abschnitt beschriebenen Faktoren beeinflusst. - Um globale Durchschnittswerte auszuklammern, sollte immer auf das Hauptland eingeschränkt werden. - Ein Schwellenwert an Impressionen sollte gesetzt werden, damit „eine Impression, ein Klick = 100 % CTR“ nicht die Auswertung verfälscht. Andernfalls sollten die CTRs gewichtet werden. Sinnvoll sind zudem beide Vorgehensweisen zusammen. - Ein eher kurzer Zeitraum sollte gewählt werden, zum Beispiel die letzten zwei bis vier Wochen. Zudem sollten die Tageswerte abgefragt werden. - Pro Suchanfrage sollte immer nur die beste Einstiegsseite analysiert werden, da ansonsten die CTR deutlich reduziert wird. Dazu sollten am besten die Daten mit Einstiegsseite abgefragt und Duplikate auf Basis der Suchanfrage entfernt werden. Anschließend sollte mit den gewünschten Verzeichnisdaten beziehungsweise tendenziell ähnlichen Suchergebnissen weitergearbeitet werden. Über das normale Webinterface lassen sich die Daten in der gewünschten Konfiguration nur sehr schwer abfragen. Der deutlich komfortablere Weg ist der über die API der Google Search Console. Wer dafür keine eigene Lösung hat, der kann „Search Analytics for Sheets“ (einfach.st/sasheets) oder den Free-Account in meinem Tool searchanalyzer.io nutzen. Im Modul „Traffic Insights“ ist eine Berechnung der erwarteten CTR anhand der abgefragten Daten auch im kostenlosen Konto möglich. Durchschnittliche CTR-Werte für die eigene Website berechnen Immer wieder kommen CTR-Studien heraus, die anhand von vielen Datenpunkten die Klickrate pro Position zeigen. Die neueste mir bekannte Studie ist aus dem Mai 2023 von Backlinko, die unter einfach.st/blko5 die in Abbildung 6 sichtbaren Werte zeigt. Abbildung 6: Diese durchschnittlichen CTR-Werte hat Backlinko aus vier Millionen Suchergebnissen errechnet (Quelle: einfach.st/blko5). Im Artikel sind noch weitere CTR-Kurven zu sehen, beispielsweise für „Brand-Suchanfragen“, bei denen die Klickrate deutlich anders aussieht. Das Problem an solchen Verteilungen ist: Für den eigenen Themenbereich können die CTRs komplett anders aussehen und das SERP-Layout von heute muss nicht das SERP-Layout von morgen sein. Also auf zur eigenen CTR. Insgesamt ist die CTR-Berechnung keine exakte Wissenschaft, sondern generiert Näherungswerte. Denn durch „Zero Click Searches“, also Suchen ohne Klick auf irgendein Ergebnis, kann abhängig von der Gesamtanzahl an Suchanfragen die CTR-Berechnung schnell „Position eins, erwartete CTR 0,14 %“ sein. Google gibt sich zwar Mühe, automatische Suchen von SEO-Ranking-Checkern und Co. herauszufiltern, doch das gelingt nicht immer zuverlässig. Auch darf nicht vergessen werden, dass viele Suchanfragen fehlen. Apropos „Zero Click Searches“: Dazu gibt es unter einfach.st/spark3 eine aktuelle Studie, laut der von 1.000 Suchen in Europa 59,7 % „Zero-Click-Searches“ sind, weil zum Beispiel die Suche abgebrochen oder direkt eine erneute Suchanfrage gestellt wird. Um die CTR im Rahmen der Möglichkeiten genau bestimmen zu können, sollten möglichst vergleichbare Daten herangezogen werden – siehe dazu die Liste im vorherigen Absatz oder die Beispielkonfiguration in Abbildung 7. Je nach Überschneidung der Keyword-Cluster zwischen unterschiedlichen URL-Bereichen kann es sinnvoll sein, zusätzlich die URL als Datendimension abzufragen und bei der API-Abfrage noch keine URL-Einschränkung vorzunehmen. Ein Beispiel: Wenn es informationale und transaktionale Seiten zu einem Thema gibt, dann können in seltenen Fällen die informationsorientierten Inhalte als Sitelink der transaktionsorientierten Seite angezeigt werden – mit entsprechend viel Impressionen, aber wenigen Klicks auf den Sitelinks und einer folglich niedrigen CTR. Oder Bilder der informationsorientierten Seite ranken innerhalb einer Bilderbox, wodurch ebenfalls eine eher unterdurchschnittliche CTR folgt. Abbildung 7: Die Daten der Google Search Console sollten möglichst vergleichbar sein. Also weg mit Brand-Keywords und die Daten ordentlich segmentiert abfragen Sobald die gewünschten GSC-Daten zur Verfügung stehen, geht es an die Berechnung. Das Kochrezept sieht in der Regel so aus: - Jedes Keyword sollte nur einmal in der Liste vorkommen (nur relevant, wenn auch die Einstiegsseite mit abgefragt wurde), weshalb Duplikate entfernt werden müssen (zum Beispiel mit Excel unter „Daten“ => „Datentools“ => „Duplikate entfernen“. Google Sheets bietet dazu auch eine fertige Funktion). - Die Positionen werden auf ganze Positionen gerundet, zum Beispiel mit der Formel =RUNDEN(ZELLE_MIT_POSITION;0). - Die Gesamtsumme der Klicks und Impressionen pro gerundeter Position wird mit =SUMMEWENN(Spalte_mit_gerundeten_Positionen;gerundete_Position_der_Suchanfrage; Klicks_bzw_Impressionen_der_Position) berechnet. - Die beiden gewichteten Gesamtsummen werden ins Verhältnis gesetzt, um die erwartete durchschnittliche CTR für jede Position zu erhalten. - Die tatsächliche CTR wird von der erwarteten CTR subtrahiert. Als Ergebnis kommt eine Tabelle wie in Abbildung 8 heraus: Abbildung 8: Diese Vorlage zur Berechnung von zwei CTR-Modellen stelle ich kostenlos zur Verfügung. Wie mehrfach erwähnt: Die Berechnung hat ihre Tücken. Wenn zum Beispiel suchvolumenstarke Suchanfragen eine niedrige Klickrate auf Top-Positionen erreichen, beispielsweise weil Produkteinblendungen über dem Suchtreffer zu sehen sind, dann ergibt sich schnell eine niedrige erwartete Klickrate. Deshalb kann es sinnvoll sein, die Extremwerte über eine Multiplikation der Klicks und Impressionen jedes Keywords mit der Keyword-CTR zu glätten. Auch ein Ignorieren von Keywords unterhalb gewisser Schwellenwerte kann (zusätzlich) sinnvoll sein. Kurzum: Die berechnete CTR ist ein Indikator – eine exakte Zahl ist sie nicht. Das mit den Formeln klingt zu kompliziert? Dann schau unter einfach.st/sawb vorbei, wo ich die Vorlage aus Abbildung 8 zum Kopieren zur Verfügung stelle. Die Daten liefern die Grundlage für die weitere Arbeit. Achte auf große Differenzen zwischen den erwarteten und tatsächlichen Klicks und überprüfe die Suchergebnisse. Wie ist das SERP-Layout? Wie wird die eigene Seite angezeigt? Wie andere Seiten? Muss das Snippet angepasst werden? Standardmäßig sortiert meine Vorlage nach dem Klickpotenzial, aber auch eine kombinierte Sortierung nach URL und Klickpotenzial ist sinnvoll, um die Suchanfragen einer URL mit hohem Klickpotenzial schnell zu identifizieren. Über „CTR Berechnung starten“ kann diese Sortierung auf das aktuell genutzte Tabellenblatt angewendet werden. Für eine schnelle Analyse kann auch einfach die Weboberfläche der Google Search Console genutzt werden. Über das Trichtersymbol oberhalb der Tabellendaten kannst du die Tabelle filtern, zum Beispiel nach einer Mindestanzahl an Impressionen. Anschließend lassen sich die Suchanfragen anhand der Position sortieren und die erreichten CTRs werden einfach mit geschultem Blick miteinander verglichen. Abbildung 9: Für schnelle Analysen kann die Tabelle der Google Search Console über das Trichtersymbol gefiltert und anschließend sortiert werden. Und während ich diesen Artikel schreibe, kommt Sistrix mit einem neuen „Sistrix Labs“-Feature um die Ecke. Das sind Funktionen, die noch nicht Teil der Toolbox sind, aber schon einmal getestet werden können. Wer als Sistrix-Nutzer die Google Search Console verknüpft (und das neue Feature in den Einstellungen unter „Sistrix Labs“ aktiviert), der kann im Bereich „Keywords“ den Punkt „Google Search Console“ anwählen und findet dort die CTR-Potenziale. Abbildung 10: Durch die Verknüpfung von Sistrix und Google Search Console können neuerdings CTR-Potenziale sichtbar gemacht werden. So sieht die Darstellung für eine einzelne URL aus. Sistrix selbst sagt zur Grundlage: „Die durchschnittlichen CTR-Werte erheben wir aus vielen unterschiedlichen (auch externen) Datenquellen unter Berücksichtigung des entsprechenden SERP-Layouts. Die ‚echten‘ CTR-Werte nehmen wir dann aus der verknüpften Search Console, die Werte sind dann natürlich auch nur für die jeweiligen Kund:innen sichtbar.“ Damit müssten die erwarteten Klicks pro URL denen entsprechen, die Sistrix in der Keyword-Übersicht für jede Suchanfrage anzeigt. Mehr dazu unter einfach.st/sistrix83. Dein Auftrag: die bestmögliche SERP-Ansprache und Nutzererfahrung bieten Alle gezeigten Möglichkeiten bieten dir Hinweise auf (eventuell) zu niedrige Klickraten. Ob diese wirklich zu niedrig sind, ist von Fall zu Fall unterschiedlich. Ich persönlich bevorzuge es, vorab die Keyword-/Themenprioritäten zu klären und die wichtigsten Seiten und deren (vermutlich) angezeigtes SERP-Snippet bestmöglich aufzubauen. Das ist keine einmalige Aufgabe, sondern ein kontinuierlicher Prozess. Wer jetzt denkt, es wäre eine gute Idee, einfach mehr Emojis in die Description einzubauen und dadurch die CTR zu steigern – dieser Schuss kann schnell nach hinten losgehen. Je nach Thema sind Emojis eher abschreckend oder werden erst gar nicht angezeigt, und vor allem geht es nicht um die Behandlung von Symptomen, sondern die gesamthafte Nutzererfahrung muss in den Blick genommen werden. Das umfasst alle Facetten der UX-Verbesserung und Suchmaschinenoptimierung, von Ladezeiten und Bildsprache hin zur inhaltlichen Relevanzverbesserung und einer besseren (internen) Verlinkung – und endet mit einem möglichst „abholenden“ Snippet. Wie ich im Artikel zur Keyword-Recherche in der letzten Ausgabe (Website Boosting 86) geschrieben habe: „Sei relevant. Oder du bist unsichtbar.“ Mit Blick auf eine unterdurchschnittliche CTR und deren Einfluss auf das Re-Ranking gilt auch: „Sei relevant. Oder du wirst unsichtbar.“ Von daher: Zurück zu den Basics!