Sag mir, wo Du klickst!

Dominik Wojcik
Dominik Wojcik

Dominik Wojcik war unter anderem als SEO für Unternehmen wie guenstiger.de, Zalando.de, preissuchmaschine.de und Rocket Internet tätig. Mit der Gründung der Agentur Trust Agents blickt Dominik insgesamt auf über 13 Jahre Online Marketing, Softwareentwicklung und IT-Erfahrung zurück. Er ist regelmäßig als Speaker auf diversen Konferenzen sowie im Buch “100 Experten. Online Marketing” vertreten und hat „Das große Online Marketing Praxisbuch“ verfasst.

Mehr von diesem AutorArtikel als PDF laden

Werden die Trafficströme das SEO-Ranking in den nächsten Jahren beeinflussen? Googles Services und Projekte zeigen, was der Suchmaschinenbetreiber in Zukunft alles messen und wissen möchte. Links und Onpage-Faktoren bleiben mit Sicherheit weiterhin wichtig, doch Traffic könnte und wird wahrscheinlich immer wichtiger in einer SEO-Strategie. Dominik Wojcik macht sich laut Gedanken, ob und wie Bewegungsdaten beim Google-Ranking eine Rolle spielen könnten.

Heutzutage versuchen Suchmaschinenoptimierer auf Faktoren zurückzugreifen, die relativ einfach manipulierbar sind. Googles Weg muss daher dahin führen, Faktoren bei der Rankingerstellung einzuberechnen, bei denen eine solche Manipulation wesentlich schwieriger zu bewerkstelligen ist. Der Traffic wäre zum Beispiel ein Datenstrom, der ein solches Signal sein könnte, aber auch soziale Netzwerke, die ihre Daten hinter Passwortabfragen verstecken, sind eine weitere denkbare Option. In diesem Artikel sollen Methoden vorstellt werden, die theoretisch von Google genutzt werden könnten, um weitere Signale zur Rankingermittlung zu erhalten.

Mögliche Quelle Nummer 1: Google Analytics

Das Offensichtlichste zuerst: Google Analytics. Für dessen Funktionsfähigkeit bindet der Webmaster eine JavaScript-Datei auf der Website ein, die das umfangreiche Tracking möglich macht. Natürlich bekommt der Webmaster dafür tolle Auswertungen und Statistiken, die das „Nehmen und Geben“ rechtfertigen und Google erlauben, die Basisversion kostenlos anzubieten.

Eine von der Agentur TA Trust Agents durchgeführte Analyse über 14 Millionen .de-Domains hat ergeben, das 655.376 Domains auf Google Analytics zurückgreifen. Wenn man bedenkt, dass circa acht Millionen Domains aus diesem Pool bisher nicht genutzt werden bzw. ohne Inhalt sind und nur knapp sechs Millionen dieser .de-Domains tatsächlich auch Content besitzen, liegt der Anteil der Domains, die auf Analytics zurückgreifen, bei über zehn Prozent. Einige Stichproben mit ausgewählten Keywords haben ergeben, dass Google Analytics auf bis zu neun Domains innerhalb der Top 10 vorhanden war.

Wenn man zum Beispiel das Keyword „Wetter Berlin“ betrachtet, dann sieht man, dass die ersten fünf Ergebnisse Google Analytics verwenden. Theoretisch wäre es somit für Google sehr einfach zu messen, welche der Treffer die besseren Ergebnisse liefern, und diese entsprechend den Daten weiter oben zu positionieren. Auch Einflüsse auf das Suchvolumen durch z. B. TV-Kampagnen wären durch die breite Integration von Google Analytics einfach zu erkennen.

Erst auf Platz 6 folgt das erste Ergebnis, welches Google Analytics nicht integriert hat. Dass dieses Ergebnis nicht innerhalb der Top 5 steht, dürfte purer Zufall sein. Es ist auf jeden Fall nicht bekannt, dass Google Domains, die Analytics nicht verwenden, absichtlich im Ranking zurücksetzt. Nichtsdestotrotz sieht man anhand dieses Beispiels bereits, dass Google dank Analytics eine breite Datenbasis zur Verfügung hat, um mehr rankingrelevante Informationen in die Rankingberechnung einzubeziehen.

Mit Analytics hat Google also auf der Serverseite eine Möglichkeit, Trafficströme zu messen. Aber auch clientseitig wäre es garantiert sehr interessant zu sehen, was und wohin die User surfen. Was könnte man also Besseres machen, als einen eigenen Browser zu entwickeln. Ich will jetzt nicht unterstellen, dass Google den Chrome-Browser nur entwickelt hat, um Besucherströme zu messen. Aber durchaus merkwürdig war, dass die ersten Versionen des Chrome-Browsers nach Hause telefoniert haben. Aber schauen wir uns mal den Chrome-Browser etwas genauer an.

Mögliche Quelle Nummer 2: Googles Omnibox Predictions

Bei Google Autosuggest wird jeder Tastenanschlag im Browser an Googles Suggest-Engine gesendet. Zusätzlich sagt Google selbst Folgendes zu der Funktion:

„In order to provide the predictions, Chrome sends the text that you have typed into the omnibox to your default search engine (you can configure your default search engine in Chrome's settings). Your IP address and certain cookies are also sent to your default search engine with the request in order to deliver results most relevant to you.”

In den Chrome-Einstellungen ist es möglich, die automatischen Suchvorschläge zu deaktivieren. In neueren Chrome-Versionen ist diese Funktion standardmäßig deaktiviert. Bis zur Version 4.0 enthielt jede Google-Chrome-Installation eine eindeutige Identifikationsnummer, die es für Google (noch) leichter machte, Nutzer direkt nachzuverfolgen. Mittlerweile hat Google diese Identifikationsnummer entfernt und sendet diese nicht mehr mit.

Mögliche Quelle Nummer 3: Google Safe Browsing

Wenn wir aber über den Chrome-Browser sprechen, gibt es noch eine wesentlich interessantere Funktion, die sich nur sehr schwer abschalten lässt: „Safe Browsing“. Diese Funktion bewahrt den User vor Angriffen aus dem Web und verhindert das direkte Aufrufen einer gefährlichen, attackierenden Webseite.

Die Funktionsweise ist so, dass Google alle 30 Minuten einen (lokalen) Datenbankabgleich durchführt und dadurch die Liste, welche Webseiten Schadsoftware verteilen, aktuell hält. Bei diesem Vorgang werden auch Cookie-Daten übertragen. Warum solche an Google übertragen werden müssen, erschließt sich mir nicht. Ein herrschender Irrglaube ist übrigens, dass Google jede Abfrage live prüft. Das ist definitiv nicht der Fall.

Grundsätzlich stellt Safe Browsing einen sehr guten Service dar und laut Blogpost vom Juni 2013 verwenden eine Milliarde aktive Nutzer diesen Service. Sie haben richtig gelesen: 1.000.000.000 Nutzer (Quelle: einfach.st/gsafe). Neben Google Chrome ist Safe Browsing standardmäßig auch im Firefox- und Safari-Webbrowser enthalten.

Viele Online-Marketer bzw. SEOs glauben, dass sie nicht verfolgbar sind. Doch durch Google Safe Browsing sind sie es. Damit lassen sich wahrscheinlich nicht nur personalisierte Daten erheben, sondern auch Trafficdaten sind dadurch für Google leicht erkennbar. Zwar verschlüsselt Google aufgerufene URLs mit einem Hashwert, doch diese Hashwerte lassen sich für alle wichtigen Domains einmalig erstellen und so abgleichen.

Der Schutz, der durch das Safe Browsing entsteht, ist allerdings nur ein schwacher: Durch die automatische Aktualisierung im 30-Minuten-Takt kann ein solcher Schutz bei einer stark frequentierten Webseite schon wieder veraltet sein und zwischenzeitlich können sich viele Besucher infiziert haben. Der Schutz ist also relativ ineffektiv.

Hinweis der Redaktion

Dass Google Trafficdaten als Rankingfaktor heranzieht, gilt unter Suchmaschinenoptimierern fast schon als selbstverständlich. Sicher ist es natürlich nicht, denn was der Suchgigant tatsächlich zur Beurteilung von Websiten heranzieht, bleibt nach wie vor in vielen Teilen sein Geheimnis. Die Daten von Google Analytics für das Ranking zu missbrauchen, das hat Google immer wieder bestritten. Ob diese Daten tatsächlich ungenutzt bleiben, ist natürlich auch nicht sicher. Würde Google allerdings bewusst fälschlich behaupten, man nutze Analytics nicht für Rankingzwecke, und es käme irgendwann doch heraus, hätte wohl man ein extremes Glaubwürdigkeits- und Imageproblem. Aufmerksame Beobachter können erkennen, dass Google sich zu bestimmten Fragen nicht äußert, andere bejaht oder verneint. Ob Google eine harte Lüge mit dem Risiko, dabei erwischt zu werden, der eleganteren Möglichkeit zu schweigen vorzieht, mag jeder für sich beurteilen – genau wissen kann man es nicht.

Sieht man sich aber die sammelbaren Bewegungsdaten des Chrome-Browsers mit einem weltweiten Marktanteil von mittlerweile 43 Prozent (Tendenz weiter steigend) an, würde Google die Daten aus Google Analytics auch gar nicht brauchen, weil dieser ungleich größere Datensatz den aus Analytics praktisch komplett mit enthält. Insofern muss man sich als SEO oder auch als unbedarfter Websitebetreiber wahrscheinlich keine Gedanken über den Einsatz von Analytics machen. Die Beobachtung, dass bei guten Suchergebnissen oft Seiten ranken, die Google Analytics einsetzen, ist in keiner Weise ein Beweis für Ursächlichkeit. Die Korrelation von Facebook Likes von Seiten mit gutem Ranking ist noch größer und selbst Fachzeitschriften sind in die Falle getappt, darin das „neue SEO-Gold“ zu titeln. Vögel fliegen nicht, wie oft zitiert, tief, weil das Wetter schlecht wird, sondern weil sich ihre Nahrung, die Insekten, wegen des Luftdrucks mehr in Bodennähe aufhalten oder bei gutem Wetter mit warmer Luft eben eher nach oben getragen werden. Die Vögel dominieren, weil man sie sehen kann, die Insekten aber nicht. Die Beobachtung zweier oft gleichzeitig auftretender Phänomene bedeutet nicht automatisch, dass eines für das andere ursächlich ist.       

Wie schaltet man Safe Browsing ab?

Im Firefox sollte man „about:config“ eingeben und nach „SafeBrowsing“ suchen. Dadurch findet man die entsprechenden Einträge in der Browserkonfiguration. Unter browser.safebrowsing.gethashURL sollten Sie den Wert von „true“ auf „false“ setzen. Dadurch wird Safe Browsing im Firefox deaktiviert.

Im Chrome-Browser ist die Einstellung über Details -> Datenschutz zu finden. Hier entfernt man einfach den Haken bei „Phishing- und Malware-Schutz aktivieren“.

Wer den Safari-Browser verwendet, kann die Funktion ebenfalls deaktivieren. Das funktioniert leichter, als man denkt. Zu finden ist die Einstellung unter Safari -> Einstellungen -> Sicherheit -> „Sites mit betrügerischen Inhalten“.

Zusammen haben diese drei Browser weltweit einen Marktanteil von über 75 Prozent! Wie schafft man es aber, die anderen 25 Prozent zu messen?

Eine weitere schöne Variante ist das DNS von Google, zu finden unter den IPs 8.8.8.8 und 8.8.4.4. Laut Google versteckt sich hinter diesen IPs einer der schnellsten DNS-Server im Internet. Der DNS-Dienst ist elementar für das heutige Internet. Jeder. der sich mit dem Internet verbindet und einen Domainnamen aufrufen möchte, braucht einen DNS-Server, der den Namen der aufgerufenen Domain in eine IP-Adresse umwandelt.

Wenn nun jemand den DNS-Server von Google verwendet, wird jeder aufgerufene Domainname geprüft und in eine IP-Adresse aufgelöst, sofern eine solche vorhanden ist. Damit lassen sich alle Nutzerbewegungen genau dokumentieren und nachverfolgen. Zwar werden hier keine Cookie-Informationen gesendet, aber jede Anfrage wird genau gespeichert und protokolliert. So lassen sich noch genauer Trafficdaten ermitteln. Laut Google handelt deren DNS-System mehr als 130 Milliarden Anfragen pro Tag! Das sind ausgeschrieben 130.000.000.000 Requests am Tag von circa 70 Millionen einzigartigen IPs (Quelle: einfach.st/gdns). Was man mit solchen Datenmengen analysieren könnte, wäre schon ein erheblicher Anteil des Internettraffics.

Mögliche Quelle Nummer 4: Google Gadgets

Nach der Betrachtung allerlei nutzerseitiger Möglichkeiten kommen wir jetzt zu den serverseitigen Analysemöglichkeiten zurück. Eine weitere mögliche Datenquelle: Homepage Gadgets. Google stellt einige Services zur Verfügung, die auf Google-Servern liegen und auf unterschiedliche Art und Weise eingebunden werden können. Durch die Anfrage der Daten von Google-Servern kann dabei auch ein Referrer übertragen werden und für den Suchmaschinenbetreiber wird es dadurch möglich, die Herkunft der Anfrage zu ermitteln.

Ein Dienst, den Google anbietet, ist z. B. „Google Webfonts“. Dieser Service ermöglicht es, auf Websites Schriftarten zu verwenden, die gar nicht auf dem Endgerät des Nutzers installiert sind.

Auf Abbildung 8 ist eine Beispielintegration von „Webfonts“ sowie der JavaScript-Bibliothek „jQuery“ zu sehen. Der Vorteil der Einbindung von jQuery vom Google-Server ist der (mögliche) Einfluss auf die Ladegeschwindigkeit. Sofern ein Nutzer mehrere Websites besucht, die jQuery über Google-Server einbinden, kann diese Datei direkt aus dem Cache des Nutzers geladen werden. Dieser Effekt fiele weg, wenn jeder Webmaster jQuery auf der eigenen Domain zur Verfügung stellen würde.

Innerhalb der oben erwähnten Analyse wurde untersucht, wie häufig man auf Google-API-Einbindungen stößt. Das Ergebnis: Von rund 14 Millionen .de-Domains verwenden über 170.000 Domains bereits diese Möglichkeit.

Doch welche Möglichkeiten gibt es noch für Google, an Daten zu kommen? Ein weiterer Dienst ist „Recaptcha“. Bei diesem Captcha-Dienst bekommen Nutzer nicht zufällige Zeichenfolgen zu sehen, sondern solche, die bei der Digitalisierung von Büchern nicht mit letzter Sicherheit fehlerfrei erkannt wurden. Durch die Eingaben der Nutzer wirken diese also bei der Digitalisierung von Büchern mit, was natürlich ein sehr angenehmer Nebeneffekt ist. Auch hier findet eine Interaktion mit Google-Servern statt.

Analog zum „Like-Button“ von Facebook ist auch durch die Integration des Äquivalents aus dem Hause Google, des +1-Buttons, eine Integration eines JavaScript-Codes notwendig, der auf Google-Servern liegt. Die bekannte Folge: Ein Referrer wird beim Aufruf der den +1-Button enthaltenden URL an Google gesendet.

Auch der beliebte Dienst „Google Maps“ ist natürlich nicht frei von einer Datenabfrage von Google. Egal ob die interaktive Karte oder nur die Bilder-Variante auf einer Website eingebunden wird: Hier findet ebenfalls ein Datenaustausch bzw. eine Datenanfrage von Google-Servern statt. Und natürlich darf bei der Betrachtung von Datenquellen nicht Googles immenses Werbenetzwerk vergessen werden: Google AdSense und Doubleclick. Eine passgenaue Ausspielung von Werbemitteln ist natürlich nur dann möglich, wenn Google analysiert, welche Anzeigen auf der aufgerufenen Seite die höchsten Ertragschancen bieten.

Ein weiteres für Google sehr wichtige Produkt wurde noch gar nicht betrachtet: Das Android-Betriebssystem und der dadurch mögliche Zugriff auf Datenströme des „mobile Web“. Angebote wie Google Sync erlauben es Nutzern, nicht nur Einstellungen (beispielsweise WLAN-Passwörter) über verschiedene Android-Endgeräte hinweg zu synchronisieren, sondern bieten natürlich durch die Speicherung der Daten auf Google-Servern die Möglichkeit, diese (anonymisiert) weiterzuverarbeiten. Auch für Chrome wird die Synchronisation von Browser-Einstellungen wie Passwörtern und Suchverläufen über verschiedene Endgeräte hinweg angeboten.

Mit neuen Projekten wie „Google Fiber“ ist Google auch als Internet-Provider aktiv geworden. Hintergrund des Projekts: Google bietet Haushalten die Möglichkeit, auf Googles eigene Glasfaser-Infrastruktur zuzugreifen, die in der Regel höhere Datendurchsätze erlaubt als die Angebote anderer Marktteilnehmer. Noch ist Google Fiber nicht großflächig verfügbar, aber einige Städte in den USA wie Kansas City wurden bereits erschlossen. Der mögliche Nutzen für Google: Dadurch, dass die Daten auf „der letzten Meile“ über Googles Architektur laufen, könnten diese Daten in welcher Form auch immer für Analysezwecke und „Produktverbesserungen“ genutzt werden.

Doch nicht nur über Google Fiber stellt Google Internet-Infrastruktur zur Verfügung. Auch Hotspots sind eine beliebte Möglichkeit, Nutzer dazu zu bekommen, sich über die eigene Infrastruktur mit dem Internet zu verbinden. Ein solches Infrastrukturprojekt steht gerade in San Francisco vor der Fertigstellung: Google wird dort insgesamt 31 kostenlose WLAN-Hotspots installieren. Kostenlos ist dabei im Sinne von einer nicht notwendigen finanziellen Vergütung zu verstehen.

 

Seit Neuestem versucht Google, über Ballons einen Internetzugang in schwer zugänglichen Gebieten verfügbar zu machen. Das „Google Loon“ (www.google.com/loon) genannte Projekt möchte sich auf Gebiete fokussieren, in denen es bisher kein (Festnetz-)Telefonnetz gibt, beispielsweise in Teilen Afrikas und Asiens.

Die Möglichkeiten für Google, Trafficströme zu messen, werden immer vielfältiger. Gerade wenn man versuchen würde, alle Daten zu aggregieren und daraus Muster zu erkennen, würden sich sehr präzise Aussagen tätigen lassen.

Viele SEOs vermischen immer wieder zwei Dinge, die eigentlich elementar auseinanderliegen: das Crawling und die Rankingfaktoren. Nur weil Google eine Seite crawlt, die vielleicht in einem Google+-Post verlinkt wurde, heißt das im Umkehrschluss noch lange nicht, dass Google+ auch ein Rankingfaktor ist. Der gefundene Verweis stellt in erster Instanz nur genau eins dar: Eine Empfehlung, über welche Google auf eine URL aufmerksam geworden ist. Die gefundene Seite hat natürlich auch die Möglichkeit, aufgrund ihres „Ist-bekannt-Status“ im organischen Index zu ranken, allerdings wird dafür die Erwähnung auf Google+ nicht das alleinig entscheidende Stellrädchen sein. Durch die Wechselwirkung von Faktoren, sowohl onpage als auch offpage, ist es ungemein schwierig, genau einen (angenommenen) Faktor als ausschlaggebend für das Ranking einzuordnen.

Doch die Synergien zwischen Ranking und Crawling könnten auf jeden Fall erheblich verstärkt werden, wenn Google diese Daten direkt auswerten würde. Die grundsätzliche Frage ist daher, ob eine Seite, die viel Traffic hat, auch gleichzeitig gut bzw. relevant ist? Dies darf zumindest in einigen Fällen bezweifelt werden. Eine Seite, die ein Nischenthema abdeckt, kann nicht immer 100.000 User am Tag aufweisen. Deswegen sollte hier auch Google abwägen, ob viel Traffic auch in Relation zur Seite und dem Beweggrund positiv oder negativ gleichermaßen gewichtet. Verlinkungen stellen zwar auch eine Empfehlung dar, aber man kann auch „warnende“ Links aus unterschiedlichen Motivationen setzen. Ein Beispiel: Wenn sich viele User über einen Shop beschweren, z. B. über den schlechten Service, und diesen in der Folge immer wieder in diesem Zusammenhang verlinken, so wäre das für Google ein fälschlicherweise positiv gewertetes Signal, welches eigentlich herausgefiltert werden müsste. Ansonsten würde der Shop steigende Rankings aufweisen, obwohl die meisten Nutzer unzufrieden sind.

So ähnlich kann es sich auch mit den Zugriffen auf eine Website verhalten: Auch Traffic ist nicht „unfakebar“ und kann daher auch manipuliert werden. DDoS-Attacken zeigen deutlich, dass es genügend Bots gibt, die starken Traffic auf einer Webseite verursachen können. Auch hier wäre das ein „false-positive signal“, welches Google herausfiltern müsste, wenn man Traffic als Rankingfaktor integrieren wollen würde. 

Datenströme sind aber durchaus eine Möglichkeit, Brands und Trends besser zu verstehen, um auch das Deepweb besser zu crawlen. Zudem lassen sich SEO-Seiten (viel) einfacher identifizieren. SEO-Seiten, die 95 % Traffic über die Suchmaschine generieren und keinen Traffic von anderen Quellen erhalten, könnten auch Filter auslösen, die dazu führen, dass solche Seiten einfach noch mal genauer angesehen und auf ihre Existenz- bzw. Rankingberechtigung überprüft werden.

Traffic liefert eine Möglichkeit, eine breite Marktübersicht zu erhalten. Wenn man weiß, dass Reiseanbieter A wesentlich mehr natürlichen Traffic über Type-ins (d. h. das direkte Eintippen des Domainnamens) generiert als Reiseanbieter B und somit einen höheren Faktor an wiederkehrenden Besuchern hat, so wäre dies ein mögliches positives Signal.

Die Möglichkeiten, Traffic als Rankingfaktor zu integrieren, sind also gegeben und auch die Zukunft kann durchaus dazu führen, dass Google verstärkter das Netz beobachten wird. Die Möglichkeiten hätte Google auf jeden Fall. Dort hat man es geschafft, sich in unglaublich viele Datenströme zu integrieren.

Auch die Zukunft wird zeigen, dass Google Menschen den Zugang zum Netz erleichtern möchte. Ein Nebeneffekt dabei ist, dass auch die Nutzungsdaten abgegriffen werden. Vielleicht nicht immer personalisiert, aber Google kann die Nutzer besser verstehen und somit auch gezielt bessere Ergebnisse liefern. Im Endeffekt geht es darum, die User mit dem besten Content und dem passendsten Angebot zu verbinden – nur so wird man sein Business erfolgreich im Netz halten können.