The Keywords are back in town!

Mario Fischer
Mario Fischer

Mario Fischer ist Herausgeber und Chefredakteur der Website Boosting und seit der ersten Stunde des Webs von Optimierungsmöglichkeiten fasziniert. Er berät namhafte Unternehmen aller Größen und Branchen und lehrt im neu gegründeten Studiengang E-Commerce an der Hochschule für angewandte Wissenschaften in Würzburg.

Mehr von diesem AutorArtikel als PDF laden

Früher war die Welt für viele Websitebetreiber noch in Ordnung. Man sah in Google Analytics oder den früheren Webmaster-Tools die Suchworte, mit denen Besucher auf die eigene Webpräsenz kamen. Nach der Einführung des sicheren SSL-Übertragungsprotokolls wurden im Oktober 2011 aber plötzlich die Suchanfragen aller bei Google eingeloggter Nutzer statt mit den jeweiligen Suchworten nur mit „not provided“ ausgewiesen. Nach kurzer Zeit schwoll dieser intransparente Teil auf gut 90 Prozent aller organischen Suchanfragen an. Keywordauswertungen waren ab da praktisch nutzlos. Durch die Verknüpfung der Googles Search Console über die neue API-Schnittstelle mit entsprechenden Tools werden die „Schwärzungen“ bei den Suchbegriffen nun wieder zumindest zum Teil aufgehoben. Der wahre Wert einer automatisierten Auswertung liegt aber eigentlich in den anderen, mit übertragenen Daten.

Browser petzen. Klickt man sich nämlich von einer Webseite zur nächsten, wird dem Webserver der aktuellen Seite beim Aufrufwunsch in der Regel auch immer der sog. Referrer übertragen. Das ist nichts anderes als die Adresse (URL) der Webseite davor, von der der Besucher – meist durch einen Klick auf einen Link – verwiesen wurde. Besonders spannend ist dieser Referrer, wenn er nicht nur die blanke Adresse enthält wie z. B.

www.domainA.de/empfehlungen.html,

sondern wenn bestimmte Parameter hinten angefügt mit übergeben werden:

www.domainA.de/suchseite.html/?q=Dosensuppe

Im zweiten URL-Beispiel oben kann man erkennen, dass hier offenbar von einer Suchseite weitergeleitet wurde, und zwar nach einer Suche nach „Dosensuppe“. Da die URL-Struktur mit ihren Parametern bei Google und anderen großen Suchmaschinen bekannt ist, konnten entsprechende Programme zur Webbesucheranalyse solchen Verweisen eben auch ein vermittelndes Keyword zuweisen, indem man den zuständigen Teil „Dosensuppe“ aus dem Referrer extrahierte. Nach der erwähnten Umstellung waren keywordbasierte Analysen allerdings nicht mehr vernünftig möglich, da diese Daten nun nicht mehr übermittelt wurden. Stattdessen zeigten die Analytic-Tools „not provided“ an.

Mit welchen Suchbegriffen kommen Besucher? Not provided!

Es folgten allerlei Bemühungen und Tipps, wie man sich mit mehr oder weniger aufwendigen Hochrechnungen oder datengestützten Schätzungen zumindest eine grobe Übersicht über die vermittelnden Keywords verschaffen kann. In den Webmaster-Tools von Google, die im April dieses Jahres in „Search Console“ umbenannt wurden, kann man zwar genaue Daten sehen, aber jeweils nur für einen Zeitraum von 90 Tagen zurück und nur in den vorgefertigten Darstellungsoptionen. Wer übrigens noch keinen Account für die Search Console hat, kann diesen unter www.google.com/webmasters anlegen. Die Nutzung ist kostenlos.

Externe Tools, vor allem Ranking-Tools, bringen zwar meist ungleich mehr Daten, diese sind aber in der Regel nicht so genau, weil sie die Google-Ergebnisseiten „scrapen“, also Daten von dort nach einer Abfrage extrahieren. Diese Abfragen kommen je nach Tool im schlimmsten Fall immer von der gleichen IP-Adresse und sie sind und waren auch immer nur zeitpunktbezogen. Erfasst wird das Ranking für ein Keyword tatsächlich nämlich immer nur zu genau dem Zeitpunkt der Abfrage. Zusätzlich außen vor bleibt, dass mittlerweile viele Suchende individuelle Ergebnisse bekommen und die realen Rankings daher zum Teil erheblich abweichen können. In der Search Console wird die „durchschnittliche Position“ angegeben, also ein gemittelter Wert aus den tatsächlichen Impressions, bei denen die eigene Website als klickbare Option in ausgelieferten Suchergebnissen auftaucht.

Was ist nun neu?

Neu ist, dass Google für die Search Console seit Anfang August eine sog. API, also eine standardisierte Datenschnittstelle, zur Verfügung stellt. Wer programmieren kann, hat nun die Möglichkeit, die einzelnen Daten von dort in seine eigenen Systeme zu übertragen. Wenn man sich daran versuchen möchte, findet man unter developers.google.com/webmaster-tools umfangreiche Hilfestellung und auch Codebibliotheken. Die Abfrageparameter sind unter developers.google.com/webmaster-tools/v3/parameters beschrieben.

So fördert die beispielhafte Abfrage

request = {
    'startDate': flags.start_date,
    'endDate': flags.end_date,
    'dimensions': ['query'],
    'rowLimit': 10
}
response = execute_request(service, flags.property_uri, request)
print_table(response['rows'], 'Top Keywords')

die Top-10-Suchworte zutage, absteigend sortiert nach Klicks:

 Top-Keywords

    

Keys

Clicks

Impressions

CTR

Position

seo

3523.0

270741.0

0.0130124362398

5,86615252215

hreflang

3207.0

5496.0

0.583515283843

1,10080058224

robots.txt

2650.0

23005.0

0.115192349489

4,30367311454

301 redirect

2637.0

7814.0

0.337471205529

1,62119273100

googlebot

2572.0

6421.0

0.400560660333

1,15823080517

google seo

2260.0

11205.0

0.201695671575

1,38295403838

google sitemap

1883.0

4288.0

0.439132462687

1,21175373134

canonical url

1882.0

3714.0

0.506731287022

1,12762520194

sitemap

1453.0

22982.0

0.06322339222

3,78074144983

 

„Clicks“ sind tatsächliche Klicks auf ein Suchergebnis der eigenen Domain und „Impressions“ gibt an, wie oft eine URL der eigenen Domain in Suchen ausgegeben wurde. Die Präzision der Daten bzw. der Nachkommastellen der durchschnittlichen Position legt nahe, dass sie exakt sind. Das muss aber gar nicht zwangsläufig der Fall sein. Wirklich jeden einzelnen Klick und jede Impression mit in die Berechnung einzubeziehen, wäre enorm rechen- und speicheraufwendig. Kleinere Abweichungen in den Daten lassen vielmehr vermuten, dass Google hier qualifizierte Hochrechnungen vornimmt. Nach einer Bundestagswahl haben gut gemachte Hochrechnungen auch nur wenige Prozentpunkte Unschärfe. Da man im Web systembedingt sowieso immer mit einer gewissen Unschärfe bei Daten kalkulieren muss, erscheint dies durchaus auch akzeptabel. Als das Web explosionsartig wuchs, arbeitete Google bei der Berechnung des PageRanks auch recht schnell mit Näherungen, weil so viele Iterationen über das gesamte Web zu rechnen für eine exakte Ermittlung kapazitativ nicht mehr darstellbar waren. Daher setzte man sich hin und beschäftigte sich so lange mit Näherungsalgorithmen, bis das hochgerechnete Ergebnis dem tatsächlichen mit nur noch kleinen Abweichungen entsprach. Ähnlich werden wahrscheinlich auch hier mathematische Hochrechnungen eingesetzt.

Vergleicht man die Daten der Search Console mit denen diverser SEO-Tools, entstehen zwangsweise Diskrepanzen, da diese die Daten oft direkt aus den Suchergebnissen extrahieren. Allerdings ist das nur für solche Keywords der Fall, die der Toolanbieter auch aktiv abgefragt hat. Die Search Console zeigt ggf. auch „exotischere“ Keywords an, mit denen man auch nur ein einziges Mal gefunden bzw. geklickt wurde, weil dort alle Daten ja originär anfallen und nicht von außen gezielt über definierte Suchbegriffe quasi „künstlich“ abgefragt werden.

Man muss sich auch des Unterschieds der Metrik „Impressions“ aus der Search Console und der Metrik „Suchvolumen“ einiger Tools bewusst werden. Die Impressions basieren auf realen Suchvorgängen, bei denen die eigene Domain tatsächlich auch im Ergebnis angezeigt wurde. Der Wert „Suchvolumen“ wird in der Regel aus AdWords ausgelesen und ist daher anders zu interpretieren. Ein Beispiel: Ein Keyword wird in der Search Console mit nur zehn Impressions ausgewiesen und hat eine durchschnittliche Position von 35. Ein Ranking auf der ersten Seite kann und wird einen ungleich höheren Wert bzw. Impressions haben. Mit anderen Worten: Das Suchvolumen in vielen Tools ist eher generell als Potenzial für ein Keyword zu verstehen – die Werte in der Search Console hängen immer exakt mit der tatsächlichen Position zusammen. Verändert sich diese Position soweit, dass sie sich über eine Ergebnisseite hinweg ändert, ändern sich auch die Impressions. Das ist auch völlig logisch, denn die Ergebnisseiten weiter vorne werden natürlich statistisch ungleich häufiger angesehen, als die weiter hinten. Besonders starke positive Änderungen bekommt man daher natürlich, wenn sich das durchschnittliche Ranking von Seite zwei auf Seite eins verlagert. Die Impressions steigen in diesem Fall meist ganz extrem an, während in anderen Tools das Suchvolumen eben oft gleich bleibt. Das ist kein Nachteil – man muss nur im Kopf behalten, dass man diese beiden Werte eben nicht miteinander vergleichen kann bzw. sie auch richtig interpretiert!     

„Die Google-Daten sind absichtlich falsch, um uns zu verwirren!“, verwirrter SEO

In Foren und sozialen Netzwerken ist gar nicht so selten zu lesen, die Daten von Google wären „völlig daneben“ oder „Fantasiewerte“. Ein Grund für diese meist nicht nachvollziehbar belegten Aussagen könnte darin liegen, dass die nun verfügbaren, relativ präzisen Daten eben nicht mit den eigenen Werkzeugen, Wünschen oder selbst ergoogelten Werten übereinstimmen und die Ablehnung daher eher der Stabilisierung des eigenen Glaubens – und des der Kunden – dienen. Natürlich hat der laute Ruf, man wisse, dass Google nur schlechte oder absichtlich falsche Daten liefere, auch einen gewissen Charme im Hinblick auf das Eigenmarketing. Warum Google hier falsche Daten herausgeben sollte, könnte eigentlich nur zwei Gründe haben: Erstens, dass sie technisch nicht in der Lage wären, Impressions und Klicks korrekt aufzuzeichnen. Das ist für ein Unternehmen, dem man nachsagt, wirklich alle Daten akribisch zu speichern und auszuwerten, eher unwahrscheinlich. Eine zweite Erklärung wäre, dass man Webmastern ganz bewusst falsche Daten zuspielt. Auch das macht bei kurzem Nachdenken wenig Sinn. Einige Zweifler schwören zwar darauf, dass Google ständig solche „Nebelkerzen“ würfe. Aber engagierten Webmastern und Shopbetreibern, die ihren Lebensunterhalt online verdienen, weltweit bewusst falsche Signale zu senden – um das zu glauben, muss man wohl einen Masterabschluss in Verschwörungstheorien haben.    

Google stellt übrigens unter einfach.st/gtryit auch eine formulargestützte Generierung von Datenabfragen für die Search Console zur Verfügung (siehe Abbildung 3).

Die Herausforderung für den Abruf der Daten ist allerdings nicht die Programmierung, sondern das anspruchsvolle Datenmodell, das es zu erstellen gilt. Denn nur, wer die Daten vernünftig ablegt und mit eigenen Daten verknüpft, kann danach auch aussagekräftige Berichte erstellen. Diese Aufgabe würde wohl die meisten Unternehmen zumindest zeitlich überfordern.

Warum stellt Google die „Ranking“-API zur Verfügung?

Über die wahren Gründe lässt sich natürlich trefflich spekulieren. Zum einen stehen die Daten einem Webmaster über die Search Console sowieso zu Verfügung und sind dort jederzeit abrufbar. Zum anderen kann man damit die Zahl der mittlerweile sicherlich nennenswerten maschinellen Suchanfragen diverser Ranking-Tools reduzieren. Bereits 2013 lag laut einer Studie von incapsula der Anteil an Traffic auf Websites, der nicht durch Menschen, sondern durch Maschinen verursacht wird, bei über 61 % (http://einfach.st/incap2). 2014 sei der Anteil für kleine und mittlere Sites in der Spitze sogar auf 80 % gestiegen. Auch wenn dieser Anteilswert ganz sicher nicht direkt für die maschinellen Abrufe bei Google angewendet werden kann, so zeigt er doch, dass man den Anteil der Maschinen, die Webseiten holen, um Daten daraus abzuziehen, nicht unterschätzen darf. Im Fall von Google dürften solche Abrufe grob geschätzt im mehrstelligen Milliardenbereich liegen. Das verbraucht Ressourcen und da solche Bots keine Werbung klicken, stellen sie keinen wünschenswerten Traffic dar. Zudem werden die Metriken für das AdWords-System verfälscht, weil viel zu hohe Impressions ausgewiesen werden. Dass diese Metrik über die Klickrate zudem auch an der Preisbildung beteiligt ist, verschärft das Problem für Google noch. Es ist nicht ganz von der Hand zu weisen, dass man mit der Öffnung der Rankingdaten für einen maschinellen Zugriff möglicherweise versucht, Rankingabfragen diverser Tools nutzlos zu machen.   

Das Tracking-Tool Google Analytics kann bereits mit den Search-Console-Daten verbunden werden. Es ist davon auszugehen, dass andere Trackinganbieter in Kürze folgen und ebenfalls Schnittstellen anbieten. Statt des bisherigen „not provided“, wie in Abbildung 1 gezeigt, werden dann (wieder) Keywords im Klartext ausgegeben. 

Klassische Keyworddenke nur noch für die Kontrolle

Auch wenn man nun genaue Daten über Keywords direkt auf den Schreibtisch geliefert bekommt: Man sollte sich keinesfalls blenden lassen und in alte Denkmuster zurückfallen. Gute und moderne Suchmaschinenoptimierung bedeutet, eine Seite oder ein Set von Seiten auf ein mehr oder weniger breites Thema hin auszurichten und konsequent auszubauen. Für die Planung erfolgreicher Strategien sind diese Daten daher eher ungeeignet. Für die Erfolgsmessung bzw. die Kontrolle durchgeführter googlebezogener SEO-Maßnahmen sind sie allerdings nahezu unverzichtbar. Wenn man mit den Daten arbeitet und sie richtig filtert, lassen sich wertvolle Erkenntnisse gewinnen. Dazu einige Beispiele:

Gute durchschnittliche Position, aber zu niedrige Klickrate?

Hier gilt es, den Title und die Description zu prüfen. Passen die beiden Texte überhaupt zu dem entsprechenden Keyword bzw. der Suchanfrage? Sind die Texte „klickaffin“ gestaltet und zeigen Suchenden, dass sie hier auf jeden Fall richtig sind? Ist das Keyword in der Description enthalten? Andernfalls verwendet Google den dort hinterlegten Text in der Regel gar nicht, sondern zeigt extrahierte Textschnipselchen direkt aus dem Text der Webseite an. Diese lesen sich nicht immer so einladend, wie man das gerne hätte. Für (zu) niedrige Klickraten kann es noch mehrere Gründe geben, z. B., dass jemand gezielt nach einer Marke oder einem Unternehmen sucht (Navigational Search) und man selbst auch meist weiter unten in den Suchergebnissen auftaucht. Eine echte Chance auf Klicks hat in solchen Fällen allerdings nur die spezifische Website. Die verschiedenen Absichten hinter einer Suche beeinflussen die Klickrate natürlich ebenfalls extrem. Hat jemand konkrete Kaufabsichten (Transactional Search), wird er seltener auf ein Suchergebnis klicken, das textlich nicht deutlich macht, dass man das Gesuchte dort kaufen könnte. Sucht jemand umgekehrt nur nach Informationen zu einem Thema (Informational Search), wird er wohl auf kein Ergebnis klicken, das „hier kaufen“ oder Ähnliches im Text beinhaltet. Man sollte also mit wachem Sachverstand auf die Zahlen schauen, um abzuleiten, a) ob überhaupt Handlungsbedarf besteht und b) was an der Webseite bzw. an Title und Description geändert werden sollte, um die Klickrate entsprechend zu erhöhen. Am Ende hilft oft auch ein Blick auf das gesamte Suchergebnis, indem man selbst nach dem Keyword googelt. Dazu verwendet man am besten einen „unbelasteten“ Browser oder loggt sich zumindest vorher aus seinem Google-Account aus. In welchem Konkurrenzumfeld taucht das eigene Ergebnis auf? Oft reicht es schon aus, wenn die über einem gelisteten Rankings textlich so schlecht sind, dass Suchende auf das erste vernünftig klingende Ergebnis klicken.

Die Fokussierung hilft, knappe Ressourcen richtig einzuplanen und Verbesserungen an den richtigen Stellen vorzunehmen. Nämlich da, wo sie auch etwas bewirken können.  

Schlechtere durchschnittliche Position, aber eine hohe Klickrate?

Im Prinzip gelten die gleichen Mechanismen wie oben. Es gilt aber in diesem Fall herauszufinden, was ggf. in den von Google angezeigten Texten die Suchenden dazu bewegt, auf ein weiter unten liegendes Ergebnis zu klicken. Aus diesen Erkenntnissen kann man sehr viel lernen für das künftige Texten. Und ein weiterer Aspekt schließt sich an: In solche Seiten sollte man nach einer eingehenden Prüfung vielleicht noch weiteren Optimierungsaufwand stecken. Denn wenn die Akzeptanz schon weiter unten so hoch ist, steigt sie oft überproportional an, wenn man im Ranking noch weiter nach oben klettert. Man sollte sich aber davor hüten, nur rein auf Positionen zu schielen. Vor einer Entscheidung sollte zwingend auch immer erst ein Blick in die Analytics-Daten geworfen werden. Ist z. B. die Besuchsdauer zu gering und/oder die Bounce-Rate zu hoch, sollten erst die Probleme behoben werden, die Besucher wieder flüchten lassen. Erst dann machen weitere SEO-Maßnahmen Sinn, sofern die vorgenommenen Änderungen nicht schon automatisch zu besseren Rankings führen – was nicht selten passiert.   

Integration in Tools

Damit die Daten aus der Search Console für die Entscheidungsfindung wirklich sinnvoll verwendet werden können, bietet sich die Integration in entsprechende Tools an. Das kann ein eigenes Datenmodell sein, in das man wie oben beschrieben die neuen Metriken von Google mit einbaut. Kurz vor Redaktionsschluss haben einige Anbieter von SEO-Tools eine Integration angekündigt oder im Beta-Betrieb bereits eingefügt.

Der Vorteil liegt einerseits darin, dass die Daten nun länger als 90 Tage und dauerhaft gespeichert werden können und Vergleiche länger in die Vergangenheit reichen können. Allein das Berichtswesen vieler Unternehmen, in dem oft Jahreswerte bzw. Monatsvergleiche mit dem letzten Jahr angestellt werden, profitiert davon. Nach wie vor ist das Monitoring der tatsächlichen Rankingentwicklung eine wichtige Informationsquelle.

Info

Wer übrigens mehrere Properties (in der Regel sind das Domains oder Subdomains) über seinen Google-Account verwaltet, muss sich bewusst sein, dass Google über die API (Schnittstelle) jeweils prinzipiell den Zugriff auf alle diese Properties erlaubt. Eine Einschränkung nach Domains ist bisher nicht vorgesehen. Vor allem Agenturen mit restriktiven Kundenverträgen oder Freelancer, die über ihren Zugriff unterschiedliche Unternehmen in der Verwaltung haben, sollten sich dieses möglicherweise rechtlichen Problems bewusst sein. Sehen Verträge vor, dass Kundendaten keinesfalls an Dritte weitergegeben werden dürfen, sollte man bei Bedarf über eine Anpassung mit den betroffenen Kunden sprechen und dies ggf. bei zukünftigen Verträgen berücksichtigen. Johannes Beus empfiehlt für solche Fälle eine (Not-)Lösung: Man legt einen neuen Google-Account an und gibt dieser Gmail-Adresse im Verwaltungsmenü („Property verwalten“ rechts neben den Domains auf der Übersichtsseite) der Search Console dann gezielt Zugriff auf nur eine oder einzelne Domains. Dann geht eine Einladungsmail an dieses Postfach und der „neue“ Nutzer kann in „seiner“ Search-Console die Website dann hinzufügen.

Verwendet man dann diesen neuen Account bei einem Toolanbieter, gibt man eben auch nur diese gesondert freigeschalte Domain frei und nicht automatisch alle. Wer kontrollieren möchte, wer bzw. welche Geräte automatischen Zugriff auf das eigene Google-Konto haben, kann dies übrigens direkt bei Google unter einfach.st/gzugriff bequem einsehen und steuern.

Der weit größere Vorteil ist natürlich, dass nun durch die Verknüpfung mit anderen Daten und eine gemeinsame Filterung tiefer gehende Erkenntnisse möglich werden. So lassen sich z. B. Vergleiche nach Ländern anstellen oder nach aufrufenden Geräten. Oder man filtert alle Suchanfragen weg, die eigene Markenbegriffe oder den Unternehmensnamen enthalten. Aus den jeweiligen Unterschieden zum Durchschnitt über alles lässt sich in der Regel eine Menge lernen und nicht selten stößt man beim Nachgehen zunächst nicht plausibler Daten auf Probleme der Website, die man vorher so noch gar nicht gesehen hatte. Ein anderes Beispiel: Da Suchende von Smartphones eher seltener auf die zweite oder gar dritte Suchergebnisseite gehen, liegt die Klickrate bei Positionen größer als zehn oft nahe null. Hier hilft es, zunächst nach Smartphones zu filtern und sich die Daten ab Position 11 und schlechter anzeigen zu lassen. In Verbindung mit anderen Metriken kann man dann leichter entscheiden, welche davon sog. „low hanging fruits“ sind, man also nicht nur mehr Mobile-Traffic durch den Sprung auf Seite 1 bekommen könnte, sondern wo der Traffic auch werthaltiger ist – z. B. durch Conversions.

Prinzipiell lassen sich solche Analysen natürlich auch direkt in der Search Console durchführen. Hier muss man allerdings wie erwähnt mit der zeitlichen Einschränkung der 90-Tage-Daten leben. Für längerfristige Analysen ist das leider oft nicht wirklich ausreichend.

Sistrix Toolbox

Die Sistrix Toolbox bot kurz nach deren Erscheinen eine Integration der neuen API an. Allerdings sieht man diese Daten wie bei den anderen Anbietern natürlich nur für die Domains, für die man selbst auch einen verifizierten Zugang via Search Console hat. Nach einer Verknüpfung mit dem Account bei Google erhält man für die eigenen Domains über den neuen Reiter „Search Console“ nach Angaben von Sistrix folgende Daten zusätzlich: „Alle Daten, die Google für Deine Domains aus der Search Console über die API-Schnittstelle ausliefert. Pro Tag werden von Google maximal 5.000 Einträge zurückgegeben. Diese Daten stehen nur Dir in Deinem Toolbox-Account zur Verfügung“ (http://einfach.st/sis6).

Sistrix weist auch darauf hin, dass diese Daten einige Besonderheiten haben und daher nicht direkt mit den Daten der „normalen“ Toolbox vergleichbar sind. Da Google die Daten immer bezogen auf Keywords, URL, Geräte und das Land liefert, wird ein neuer Eintrag ausgeliefert, wenn einer der Werte sich ändert. Taucht eine URL beispielsweise mehrmals in den Suchergebnissen auf, dann werden diese Daten von Google auch gesondert ausgegeben, in mehreren Zeilen. Die Toolbox fasst diese hingegen zu einem Wert zusammen, der dann natürlich auch höher ausgewiesen wird. Johannes Beus wies im Sistrix-Blog zusätzlich u. a. darauf hin, dass es auch Abweichungen v. a. bei den Daten über Smartphones geben kann bzw. gibt. Desktopnutzer klicken zum Teil auch auf weitere Ergebnisseiten und lösen damit bei Google einen neuen Suchvorgang und entsprechende Impressions für die dort gelisteten Domains aus. Nutzer von Smartphones bleiben aber in der Regel häufiger auf nur der ersten Ergebnisseite. Daher werden für diese Geräteklasse weniger Rankingdaten erzeugt. Toolanbieter wie Sistrix ermitteln hingegen Rankings tiefer und finden daher auch URLs auf den Plätzen weiter hinten.  

Weitere Informationen dazu finden Sie unter www.sistrix.de.

OnPage.org Impact

Fast zeitgleich mit Sistrix kündigte OnPage.org die Integration der API in eine Beta-Version an. OnPage.org konzentriert sich als SEO-Tool auf die komplette Analyse einer (einzelnen) Domain und hat daher eine deutlich andere Zielausrichtung als z. B. die Sistrix Toolbox. Da die angemeldete Domain umfassend gecrawlt wird und auf Basis von Einzelseiten Optimierungspotenzial aufzeigt, können die Daten der Search Console hier – eben auf URL-Basis – tiefer integriert werden.

Das neue Modul „Impact“ erlaubt bereits sehr flexible und tagesaktuelle Auswertungen. Umfangreiche Filterfunktionen ermöglichen eine bisher nicht gekannte Transparenz. Besonders aufschlussreich sind dabei Vergleiche. Man kann sich z. B. alle rankenden Keywords auf einer bestimmten Position oder einer Range zusammen mit der CTR anzeigen lassen. Schließt man einen Markenbegriff oder den Unternehmensnahmen als weiteren Filter aus, kann man erkennen, welche URLs im Vergleich zu den anderen schlechter performen bzw. weniger geklickt werden. Durch geschicktes Kombinieren der Zeitspanne, des Lands, der Geräte (Desktop, Tablet, Smartphone), der Keywords oder der Teile eines Keywords, der URL oder der Verzeichnisse, der durchschnittlichen Position, der Impressions (Einblendungen bei einer Suche) und der Klicks ist praktisch jede Fragestellung zur Generierung von Antworten, wo weitere Optimierungen nötig oder wo noch latent Fehler verborgen sind, möglich.   

Zum Zeitpunkt des Redaktionsschluss lief bei Onpage.org noch ein Betaprogramm und man kann sich auf eine Warteliste setzen lassen. Nach Angaben des Anbieters werden fortlaufend zufällig Accounts ausgewählt und in das Testprogramm mit aufgenommen – unabhängig davon, ob es sich um einen Free- oder Businessaccount handelt.    

Im Zuge der neuen, dritten Version von OnPage.org, arbeitet man bereits daran, die Daten der Search Console mit den übrigen Daten zu verknüpfen. So lassen sich die Workflows von Suchmaschinenoptimieren und Webseitenbetreibern weiter vereinfachen. Parallel dazu werden wohl mit Hilfe von Machine Learning die Analyse-Möglichkeiten weiter ausgebaut. Weitere Infos: www.onpage.org.

Screaming Frog

Der SEO-Spider Screaming Frog ist als Desktop für Windows, OS X und Ubuntu verfügbar. Damit liegen die gescannten Daten auf der eigenen Festplatte und das Crawling läuft über die eigene IP-Adresse. Bis zu 500 URLs können kostenfrei mit einigen Einschränkungen analysiert werden, darüber wird eine jährliche Lizenzgebühr (ca. 135.- €) fällig. In der Version 5.0 wurde neben der bereits vorhandenen API für Google Analytics nun auch die für die Search Console integriert. Allerdings richtet sich Screaming Frog eher an Profis, da keine Hinweise oder Tipps für die Optimierung gegeben werden. Es wird lediglich ein Zahlengerüst rund um eine beliebige gecrawlte Domain erstellt, dies aber sehr umfassend und detailliert. Zur Interpretation sollte aber wie erwähnt genügend SEO-Wissen vorhanden sein. Wenn man die 90-Tage-Restriktion von Google umgehen möchte, muss man die Daten selbst speichern bzw. ablegen, z. B. über Excel, wohin sie sehr einfach übergeben werden können.

Weitere Infos unter www.screamingfrog.co.uk.

Ausblick

Es ist davon auszugehen, dass die Toolanbieter ihre Funktionen hinsichtlich der Daten der Google Search Console noch weiter ausbauen werden. Ebenso ist damit zu rechnen, dass andere Anbieter nachziehen und die neuen Daten ebenfalls einbinden werden. Die Schnittstelle ist noch relativ neu und die Integration in ein komplexes Tool ist keine leichte Aufgabe. Ob man den Anbietern den Abruf der tatsächlichen eigenen Daten erlaubt, muss wohl jeder für sich selbst entscheiden. Das ist wie immer in erster Linie eine Frage des Vertrauens. Im Web tauchen in Postings erste Bedenken auf, ob Toolanbieter, die auch SEO-Beratungsleistungen anbieten, wohl der Versuchung widerstehen können, auf Kundendaten zuzugreifen, um sich einen entscheidenden Vorteil bei den eigenen Beratungskunden (ggf. eben auch Mitbewerbern) zu verschaffen. Diese Gefahr ist zwar nicht von der Hand zu weisen, aber zumindest für die größeren Anbieter wohl eher als gering einzuschätzen. Diese haben schließlich eine Menge zu verlieren – das Vertrauen der Nutzer. Und dass sich ein solcher Missbrauch doch irgendwann herumspricht bzw. herauskommt und sich – Social Media sei Dank – in Windeseile verbreitet, davon kann man getrost ausgehen. Wer den guten Namen seines Unternehmens schützen will, wird daher wohl alles tun, die für Nutzer geholten und gespeicherten Realdaten entsprechend gut zu schützen.    

Vor allem aber von der Verknüpfung von Webanalytics-Daten wie z. B. Google Analytics, der Daten der Search Console verbunden mit der ständig fortschreitenden Erweiterung der Daten und Funktionen der SEO-Tool-Anbieter dürfen wir sicherlich in naher Zukunft einiges erwarten: noch mehr Transparenz über das, was da auf unseren Webseiten wirklich passiert und wie Besucher und Suchmaschinen tatsächlich darauf reagieren.