Pixelrank statt Rankingposition?

Reicht die Rankingposition als Metrik heute noch aus?

Mario Fischer
Mario Fischer

Mario Fischer ist Herausgeber und Chefredakteur der Website Boosting und seit der ersten Stunde des Webs von Optimierungsmöglichkeiten fasziniert. Er berät namhafte Unternehmen aller Größen und Branchen und lehrt im neu gegründeten Studiengang E-Commerce an der Hochschule für angewandte Wissenschaften in Würzburg.

Mehr von diesem AutorArtikel als PDF laden

Das Überprüfen des eigenen Rankings für den SEO-Erfolg findet traditionell in der Regel über die erzielten Positionen statt. Dazu werden meist die Angaben aus Tools verwendet oder auch die Daten der Google Search Console. Aber was sagt z. B. Position 4 tatsächlich aus? Dass eine Domain mit einer spezifischen Suchphrase an vierter Stelle der organischen Ergebnisse gelistet wird – so weit, so gut. In Zeiten der berühmten „ten blue links“ war das auch ausreichend. Mittlerweile sehen die Suchergebnisseiten von Google aber deutlich anders aus. Bis zu vier Ads schieben sich darüber. Infoboxen, Bilderkarusselle, lokale Suchergebnisse mit Stadtplänen, Videos, Listen, Tabellen und viele andere Dinge drücken die organischen Treffer immer weiter nach unten. So kann es sein, dass Position 4 tatsächlich noch über der Falz und damit in der ersten Aufmerksamkeit Suchender liegt. Genauso ist es aber heute möglich, dass man – gerade auf dem Smartphone – erst einmal lange nach unten wischen muss, um überhaupt dort hinzugelangen.

Um diesem Umstand Rechnung zu tragen, haben erste Tools damit begonnen, die Pixel vom oberen Rand einer Suchergebnisseite zu zählen und zusätzlich eine Art „Pixelrank“ mit auszugeben. Somit bekommt man einen besseren Eindruck, wo eine Domain tatsächlich steht. Aber genügt das Zählen von Pixeln? Welchen Mehrwert bekommt man tatsächlich dadurch? Wie zuverlässig sind diese Angaben? Und warum gibt uns Google noch immer schnöde Positionsangaben? Über diese Fragen hat sich unser Chefredakteur im folgenden Beitrag einige Gedanken gemacht …

Kann es uns nicht egal sein? Rank vier ist Rank vier – Punkt. Echt?

Nein, so einfach dürfen wir es uns nicht machen. Natürlich haben wir keinerlei Einfluss, was Google über unseren Treffern ausspielt und wie weit wir damit nach unten gestaucht werden. Aber durch die mittlerweile starken Lageschwankungen durch jede Art von „Box“ sind die Rankingpositionen verschiedener Suchphrasen eben nicht mehr vergleichbar. Position vier kann bei einer „cleanen“ Ausspielung, also ohne Werbung oder Knowledge Panels etc., durchaus mehr Klicks und somit Traffic generieren als eine Position eins, über der mehrere Boxen, sog. Featured Snippets, stehen.

Dazu kommt ein weiteres Problem: die Klickrate (CTR). Sie gibt an, wie oft auf ein Ergebnis geklickt wurde im Verhältnis dazu, wie oft dieses Ergebnis bei Suchen mit angezeigt wurde. Knackpunkt A ist dabei das Wort „angezeigt“. Technisch wird ein Ergebnis zwar angezeigt, aber das bedeutet ja nicht, dass es auch gesehen wurde und überhaupt eine Chance auf einen Klick bekam. Bei überfüllten SERPs (Suchergebnisseiten) ist es keine Seltenheit mehr, dass Position eins ohne ausgiebiges Scrollen unbemerkt bleibt. Somit wird die Interpretation der CTR zum Glücksspiel, was Knackpunkt B darstellt. Ein Beispiel:

Suchphrase

durchschn. Position

Impressions

Klicks

CTR

Gummistiefel

1,2

                1.000

300

30 %

Motorradstiefel

1,2

                1.000

90

9 %

 

Die zweite Suchphrase (Motorradstiefel) wäre üblicherweise ein klarer Fall für einen SEO-Alarm und man würde bzw. muss sich das Keyword und das Ergebnis-Snippet genauer ansehen. Ist der Title nicht klickaffin genug? Hat Google einen anderen Text für die Beschreibungszeilen darunter als die hinterlegte Description von der Webseite gekratzt? Woran liegt es, dass die Suchenden mein Ergebnis nicht mögen? So etwas muss manuell erfolgen, weil Tools hier keine Antwort liefern können. Erst beim individuellen Betrachten der spezifischen Suchergebnisseite fällt dann oft auf, was aus den Metriken nicht herauslesbar ist. Nämlich dass Google sich entschieden hat, plötzlich eine Box mit lokalen Ergebnissen aus Google Maps anzuzeigen, dass aufgrund interner Algorithmen nun vier statt vorher vielleicht zwei Ads ausgespielt werden, dass ein Ergebnis darüber Sitelinks mit ausgespielt bekommt und dazwischen noch eine „Andere suchten auch …“-Box erscheint. Nun ist klar, wer einem da die Klicks wegräubert und die CTR nach unten zieht. Das eigene Suchergebnis ist völlig in Ordnung, super klickaffin getextet und sieht aus wie immer. Es erscheint nur eben deutlich weiter unten, nach Pixeln gemessen. Die Prüfarbeit war umsonst. Wer verantwortungsvoll SEO betreibt und viel prüft, steckt mittlerweile viel Arbeit in solche dann nutzlosen Analysen. Es gibt hier nichts mehr zu optimieren. Wer zu niedrig erscheinende CTR-Werte nicht prüft, wundert sich vielleicht „nur“, warum er bei gleichem Ranking immer und immer weniger Traffic bekommt. Anderseits darf man solche Überprüfungen auch nicht unterlassen, denn natürlich kann auch der Grund für eine zu niedrige Klickrate ein nicht optimal wirkendes Suchergebnis sein und dann muss man da ran. Sich das manuelle Prüfen einfach zu sparen, ist also auch keine echte Option.        

Was bringt die Angabe der Pixelposition?

Das ist einfach zu beantworten. Das wird klar, wenn man sich das Beispiel von oben nochmals mit Pixelangaben ansehen würde:

background-color:yellow; border-bottom:1px solid black; border-left:none; border-right:1px solid black; border-top:1px solid black; height:21px; vertical-align:bottom; width:89px">

Impressions

Suchphrase

durchschn. Position

Pixelposition

Impressions

Klicks

CTR

Gummistiefel

1,2

                    164

                1.000

300

30 %

Motorradstiefel

1,2

                1.932

                1.000

90

9 %

 

Hätte man die Pixelmetrik zur Verfügung, wäre jede weitere Analyse unnötig. Die organische Position 1,2 ist zwar identisch, aber Motorradstiefel steht vom Abstand des oberen Seitenrands fast zwölfmal weiter unten als Gummistiefel. Die Suchphrasen sind zwar hier fiktiv, die Pixelangaben jedoch nicht. Gibt es für eine Suche nur rein organische Ergebnisse, findet man Position eins tatsächlich bei Pixel 164. Liegen vier Ads und eine lokale Map darüber, startet Position eins erst bei Pixel 1.932.

„Hätte man eine Art Pixelmetrik zur Verfügung, wäre jede weitere Analyse unnötig“

Abbildung 2 zeigt, dass solche Verschiebungen durchaus realistisch sind. Bei der Suchanfrage nach Rotwein auf einem Smartphone bekommt man das erste organische Suchergebnis (lila) tatsächlich erst, wenn man sich durch vier Anzeigen (rot), eine Knowledge-Box für Rotwein (grün), was andere auch gesucht haben (blau) und alle Nährwertangaben (gelb) per Daumen nach unten gewischt hat. Kein Wunder, dass die CTR in solchen Fällen ständig abnimmt und die reinen Positionsangaben ohne Pixelwerte immer weniger informativ werden.

Gibt es schon Tools, die Pixelpositionen ausgeben?

Ja, die gibt es. Hier wären vor allem die US-amerikanischen Toolanbieter RankRanger (www.rankranger.com) und SEOClarity (www.seoclarity.net) zu erwähnen, die sich auf dem internationalen Markt tummeln und beide nicht mit deutscher Benutzeroberfläche aufwarten können.

RankRanger konzentriert sich, wie der Name bereits vermuten lässt, sehr stark auf das Tracking von Keywords. Dabei werden nach Angaben des Anbieters für jedes Keyword die ersten 20 Positionen erfasst und gespeichert. Das Tool gibt dabei an, welche Featured Snippets in den Suchergebnissen ausgespielt werden, errechnet einen gewichteten Rank und zeigt an, ob man mit einem Ergebnis über oder unter der Falz liegt, also ohne oder nur mit Scrollen sichtbar ist. Das Tool kann 14 Tage lang mit 20 Keywords getestet werden, danach muss man sich für einen der vier Preispläne entscheiden, die von monatlich 79 US$ (500 Keywords pro Tag trackbar) bis 2.700 US$ (25.000 Keywords und mehr) reichen. Eine Besonderheit stellt die Kennzahl „Absolute Sichtbarkeit“ dar, die auf einer Skala von 0–10 ausgewiesen wird. Je höher, desto besser. Steht ein Suchergebnis ganz oben und wird dazu noch als sog. Featured Snippet angezeigt, erhält es den Score von 10. Läge z. B. eine Bilderbox darüber, sänke der Score auf 9,53 ab. Je mehr Featured Snippets über dem Ergebnis liegen und auch, ob das Ergebnis sichtbar ist oder unter der Falz liegt, umso schlechter wird der Score. Entwicklungen über die Zeit werden dann in Trenddiagrammen (Abbildung 3) ausgewiesen. So werden Veränderungen und vor allem Trends besser nachvollziehbar. So zeigt Abbildung 4 recht anschaulich, dass der Einbruch bei der Sichtbarkeit der hinterlegten Keywords Anfang Juni mit hoher Wahrscheinlichkeit darauf zurückzuführen ist, dass Google offenbar temporär lokale Ergebnisse mit einer Map-Box ausgespielt hat und damit fast alle vorher gut sichtbaren Rankings offensichtlich unter die Falz geschoben hat.   

SEOClarity verwendet ebenfalls eine Art „Visual rank“ und erlaubt auch differenzierte Mitbewerbervergleiche. Es ist allerdings auf eher hochvolumige Kunden ausgerichtet und startet bei monatlichen Kosten von 750 US$ (5.000 Keywords) bis hin zu über 4.500 US$.
Wie genau die Tools die relativen Positionen (Pixel) ermitteln, dazu gibt es allerdings keine bzw. zu spärliche Informationen auf den Websites. Genau da liegt aber eine ziemliche Herausforderung, wie es gleich zu klären gibt.

Wie kann man das Startpixel eigentlich genau ermitteln?

Einfache Antwort? Gar nicht. Jedenfalls nicht so sicher, wie man sich das auf den ersten Blick vorstellen würde. Der Grund dafür ist, dass die Lage von Featured Snippets sehr stark vom Gerät abhängig ist, mit dem man eine Suchergebnisseite bei Google aufruft. Das responsive Design beruht ja gerade darauf, dass erst die verfügbare Bildschirmgröße eines Anzeigegeräts das letztendliche Layout bestimmt. Selbst bei unterschiedlich breiten Smartphones kann es bereits passieren, dass etwas untereinander angezeigt wird statt nebeneinander – und damit den gesamten Content immer weiter nach unten schiebt. Dreht man ein Smartphone oder ein Tablet in die Horizontale, kann man diesen Effekt recht gut erkennen.

Abbildung 6 zeigt, wie extrem die Abweichungen sein können. Hier wurde zur gleichen Zeit per Desktop nach Rotwein gesucht wie mit dem Smartphone, was in Abbildung 2 zu sehen ist. Man kann sehr gut erkennen, dass die Featured Snippets beim Desktop auf der rechten Seite beim Smartphone über die organischen Ergebnisse wandern. Der (blaue) Block „Ähnliche Fragen“ beim Desktop wird allerdings erst nach dem ersten organischen Treffer ausgespielt. Auf dem Smartphone („Andere suchten auch nach“) liegt er dagegen darüber. Und noch ein wesentlicher Unterschied fällt auf: Während beim Desktop nur zwei Ads erscheinen, sind es auf dem Smartphone bei gleicher Suchphrase vier. Wer sich mit Google Ads auskennt, weiß natürlich, dass dies mit den Tagesbudgets und der Schaltungsweise der Werbetreibenden und einigen anderen Faktoren dort zu tun hat bzw. haben kann.    

Man hat es also mit einer ganzen Melange an Einflüssen und mit mittlerweile über 50 verschiedenen Anzeige-Boxen bzw. -arten zu tun, von denen die „Zehn blauen Links“ zwar immer mit dabei sind, aber im Endeffekt auch nur eine dieser vielen SERP-Elemente darstellen.

Eigene Auswertungen für SERP-Strukturen gefällig?

Wer selbst programmieren kann oder möchte, findet z. B. bei www.scaleserp.com eine Möglichkeit, sich die Elemente und Inhalte einer SERP (Search Engine Result Page) maschinenlesbar über eine API (Datenschnittstelle) für eigene Analysen und Auswertungen übertragen zu lassen. Die Anzeige lässt sich dabei für Desktop, Mobile und Smartphone einstellen und im JSON- oder CSV-Format protokollieren. Die Abfrage lässt sich auf viele Länder, Geräte und Suchtypen einschränken. Bis zu 125 Suchbegriffe darf man pro Monat kostenlos abfragen, darüber hinaus werden z. B. für 1.000 Abfragen 9 US$ fällig. Bei 100.000 monatlichen Abfragen werden 299 US$ fällig. Bei 500 Mio. Keywords endet der Plan dann letztendlich bei 145.000 US$.    

So bleibt also am Ende das Problem, dass ein Toolanbieter zwar ein Startpixel ermitteln kann, bei dem das Snippet des eigenen Rankingplatzes steht – aber das ist nur punktuell und hängt davon ab, wie er das technisch macht bzw. wie er das rendert. Es kann also passieren, dass ein Pixelrank von X ausgegeben wird im Tool, das Ranking bei den Suchenden tatsächlich aber sehr viel weiter unten steht.

Ein Beispiel. Ein Handwerker möchte wissen, wo er mit seiner Website für die Suchphrase „Dachdecker Bayern“ rankt. Ein Tool sagt ihm, auf Position 5 und bei Pixel 1.000. Da aber viele Smartphone-Nutzer je nach Standort auch eine lokale Landkarte ausgespielt bekommen mit diversen am Ort ansässigen Dachdeckern, liegt sein Pixelrank deutlich schlechter. Das Tool kann solche Abfragen z. B. mit lokalem Bezug aber nicht simulieren und bekommt von Google stur eine „normale“ Suchergebnisseite zurück. Je unterschiedlicher die eingefügten Featured Snippets sind und je stärker sie auf den Suchende angepasst sind, desto weniger kann man mit dem Pixelrank tatsächlich anfangen.

Eine eindeutige Messung des Pixelranks ist bisher nicht möglich

Woran liegt es wohl, dass viele der guten SEO-Tools ihren Ursprung in Deutschland haben und dass es sie hier schon gab, als man international noch Praktikanten Positionen zählen und in eine Exceltabelle übertragen ließ? Die Gründe sind sicherlich nur spekulativ, aber einer mag durchaus in der deutschen Gründlichkeit, „german engineering“, liegen. So mag man hierzulande nicht so recht in die Pixelrank-Euphorie vor allem aus den USA einstimmen und entwickelt derzeit, so z. B. bei SISTRIX, besser nutz- und verstehbare Metriken, um die „Lageschwankungen“ zu messen. SISTRIX geht hier konsequent einen anderen Weg. Man ermittelt derzeit statistisch aus den Daten der Search Console, auf die viele Kunden den Zugriff erteilt haben, wie die CTR sich bei einzelnen Featured Snippets pro Position verändert. Wenn man weiß, wie viel Platz eine spezifische Infobox benötigt und um wie viel sich die CTR im Schnitt verändert bzw. verschlechtert, wenn eine solche Box angezeigt wird, lässt sich zumindest statistisch angepasst eine realistische CTR angeben. Dies ist allerdings nur machbar, wenn man Zugriff auf die detaillierten Search-Consol-Daten Tausender Domains hat, um signifikante Änderungen messen zu können.

Hat eine Suchposition eins z. B. eine „normale“ CTR von 40 % für eine Domain und durch eine Änderung in den Algorithmen von Googles Suchseitenzusammenstellung erscheint nun ein Bilderkarussell, verschlechtert sich die Klickrate fiktiv angenommen auf 25 %. Kommt später noch eine Knowledge-Box dazu, kann man eine erneute Verschlechterung auf 20 % feststellen. Somit kann man – über alles gerechnet – für jede der derzeit über 50 unterschiedlichen Infoboxen ein relativ valides Downgrade der CTR errechnen. Am Ende lässt sich so für Kunden die Aussage treffen, warum die CTR gesunken oder gestiegen ist – nämlich aufgrund neu eingefügter Featured Snippets oder deren Wegfall. Somit bekommt man bei einer Halbierung der CTR bei gleichem Ranking zwar ärgerlicherweise auch nur noch die Hälfte des Traffics, aber man weiß in diesem Fall, dass es nicht an Title oder Description lag bzw. dass man in diesem Fall nichts dagegen tun kann. Insofern kann und braucht man auch keine unnötigen Optimierungsmaßnahmen mehr angehen und kann sich das manuelle Nachprüfen, was hier nicht in Ordnung wäre, sparen.

Info

Wer sehen möchte, wie sich für eine Suchphrase die Ergebnisseiten strukturell im Lauf der Zeit verändert haben bzw. aktuell aussehen, kann dies z. B. in der SISTRIX-Toolbox tun. Dazu gibt man statt eines Domainnamens eine Suchphrase ein und klickt dann links auf den Menüpunkt „SERP-Layout“. Neben den Pixelangaben wird die Lage einzelner Featured Snippets schematisch angezeigt (Abbildung 7). Die Balken oben über dem Ergebnis zeigen an, wie stark das SERP-Layout bzw. die Zahl der Elemente jeweils schwankt. Die Balken sind übrigens klickbar und lösen dann eine neue Anzeige zu dem jeweiligen Datum aus. Für punktuelles Nachsehen, was die Gründe für eine ständig schlechter werdende CTR bei gleichbleibenden Rankingpositionen sein könnten, kann man hier ggf. fündig werden.

All das könnte natürlich auch Google über die Search Console zur Verfügung stellen. Zwar weiß man auch dort nicht, wo auf dem Benutzerbildschirm letztlich ein Suchergebnis angezeigt wird, aber sehr wohl, welche Featured Snippets man bei einer Suchanfrage ausspielt. Insofern wäre eine derartige Angabe durchaus hilfreich für die Websiteverantwortlichen. Wahrscheinlich ist jedoch, dass dies enorm viel zusätzlichen Speicher- und Rechenbedarf seitens Google erfordern würde, den man sicherlich für die kostenlose Dienstleistung „Search Console“ nicht aufbringen wird. Zudem würde damit auch eindeutig(er) messbar, wie viele Ads tatsächlich über den organischen Suchergebnissen ausgespielt werden bzw. wie sich dies im Zeitablauf ändert.

Google hält uns knapp mit weiteren Daten zum Ranking

Alles in allem wird das Messen der eigenen Such-Performance in letzter Zeit immer schwieriger. Das liegt nicht an der Exaktheit der Daten, im Gegenteil liefert Google ja über die Search Console für jede(s) in den letzten 16 Monaten rankende Keyword oder angezeigte URL umfassend Daten. Es liegt an der optisch immer volatiler werdenden Ergebnisseite und den völlig unterschiedlichen Displaygrößen aller verfügbaren Endgeräte. Und wenn zu den zusätzlich zu den Ads und den organischen Ergebnissen fallweise ausgegebenen Featured Snippets künftig noch weitere Arten dazukommen sollten, wird es sicherlich noch schwieriger werden, die Zahlen richtig zu interpretieren.