We like to move it!

Mario Fischer
Mario Fischer

Mario Fischer ist Herausgeber und Chefredakteur der Website Boosting und seit der ersten Stunde des Webs von Optimierungsmöglichkeiten fasziniert. Er berät namhafte Unternehmen aller Größen und Branchen und lehrt im neu gegründeten Studiengang E-Commerce an der Hochschule für angewandte Wissenschaften in Würzburg.

Mehr von diesem AutorArtikel als PDF laden

Kennen Sie diesen Song „I like to move it, move it“ von Jedward? Doch was hat der mit einem Patent von Google zu tun? Tja, gute Frage. Man darf sich wohl sicher sein, dass zumindest die Beantwortung einer anderen Frage Google brennend interessiert: Nämlich die, wer fragwürdiges SEO betreibt. Die Kernaussage des Songs und die Beantwortung der zweiten Frage führt ein bereits im Januar 2010 eingereichtes Patent (US-Patent 8,244,722) zusammen, das im August dieses Jahres erteilt und damit auch öffentlich publiziert wurde. Es sieht vor, bei als verdächtig eingestuften Seiten das Ranking gezielt zu modifizieren und zu beobachten, was der Sitebetreiber aufgrund der falschen Signale tut. We like to move it!

Bei der Ausspielung von Suchergebnissen testet Google ja schon seit Langem und probiert aus, ob dieses oder jenes Suchergebnis mehr oder weniger Klicks bekommt, wenn es weiter oben oder unten platziert wird, als es die statistische Erwartung vorausberechnet. Im Prinzip ist das nichts anderes als der klassische A/B-Test, den viele Websitebetreiber ja zumindest von der Bedeutung und dem inhaltlichen Ablauf her kennen sollten.
Dieses Testprinzip steckt auch hinter dem neuen Patent. Wird eine Site algorithmisch der Modifikationsabsicht (Google spricht hier von „Spamming“) hinsichtlich des Rankings verdächtigt, stößt das wahrscheinlich einen besonderen Prozess an. Im Patent werden als Beispiel das sog. Keyword Stuffing (übermäßiger Gebrauch eines Keywords), unsichtbarer bzw. versteckter Text, Text in zu kleiner Schriftgröße, Seitenweiterleitungen, der übermäßige Gebrauch eines Keywords in den Meta-Tags oder linkbasierte Manipulationsversuche genannt. Den Ablauf kann man sich dann in etwa wie folgt vorstellen:

Manipulationsvermutung

Nach einem Update einer einzelnen Seite, wie z. B. bei gezielter Veränderung der Keyworddichte des Hauptkeywords oder nach dem Aufbau von Backlinks, verändert sich in der Regel ja das Ranking dieser Seite. Im besten Fall wandert sie in den Suchergebnissen nach oben. Schlägt der Algorithmus für den Manipulationsverdacht an, dann passiert eben genau dies nicht. Statt des eigentlichen (besseren) Rankings fällt die Seite im Gegenteil sogar ab oder bleibt einfach unverändert auf ihrer Position stehen. Welche Reaktionen wie stark und mit welchem Zeitverzug verwendet werden, ermittelt Google über ein Set hinterlegter Möglichkeiten bzw. Funktionen. Anschließend wird die Seite im Suchergebnis entsprechend neu mit ihrem „Transition Rank“ ausgewiesen, also einer „Übergangsposition“. Jetzt wird es interessant, denn ab jetzt steht diese Seite unter Überwachung (siehe Abbildung 1). Google schneidet nun Änderungen an der Seite und/oder der Backlinkstruktur mit, die in dem Zeitraum erfolgen, in dem dieser Übergangsrank aktiv ist. Nimmt ein Webmaster nämlich nun seine Änderungen zurück, weil er erschrocken feststellt, dass er eben nicht im Ranking nach oben gerutscht ist, wird dies registriert. Auch sich wiederholende bzw. ständig verstärkte Optimierungsmaßnamen, weil sich die Ergebnisposition augenscheinlich eben nicht ändert, sind in diesem Zusammenhang und in Summe gesehen ein starkes Signal.
 

Verwirrung erzeugen!

In der Patentschrift heißt es im Original: „The rank transition function provides confusing indications of the impact on rank in response to rank-modifying spamming activities. The systems and methods may also observe spammers’ reactions to rank changes caused by the rank transition function to identify documents that are actively being manipulated. This assists in the identification of rank-modifying spammers …” Damit ist dann auch unzweifelhaft klar, dass es nicht nur um die Erkennung von Seiten geht, die manipuliert wurden, sondern eben auch um die Identifikation der Spammer. Das ist ein bedeutsamer Unterschied! Es bleibt fraglich, wie weit die Auswirkungen einer solchen Erkennung gehen. Bekommt nur die betroffene Site ein Problem? Oder geht Google so weit und versucht zu ermitteln, ob deutliche Zusammenhänge mit andern Sites herstellbar sind, die von der gleichen Person bzw. dem gleichen Personenkreis betreut werden? Wie dies prinzipiell funktionieren kann, haben wir in Website Boosting bereits mehrfach beschrieben – und auch, dass solche Zusammenhänge in der Regel leicht herzustellen sind.
 

Nur noch White Hat SEO?

Für aufmerksame Beobachter der Szene wird immer klarer, dass es enger wird, was einige der bewährten, aber zumindest „grauen“ Methoden zur Modifikation des Rankings angeht. Sollte Google einige der aufgelaufenen Daten, was die „Nähe“ von Domains zueinander angeht, verknüpfen, steigt das Risiko für unsauber arbeitende Webmaster überproportional an. Da könnte es schon genügen, über mehrere Domains hinweg irgendwann einmal (!) einen gemeinsamen AdSense-, Affiliate- oder Analytics-Code verwendet zu haben, eine gemeinsame Adresse im Impressum, den gleichen Domaineigentümer oder die bequeme Einbindung in nur einen Webmaster-Account bei Google. Wer die bisherigen Patentschriften von Google gelesen hat, weiß, dass es prinzipiell noch sehr viel mehr Möglichkeiten gibt, einen „Verantwortlichen“ für Websites zu ermitteln (zwar nicht namentlich, aber als verfolgbare „ID“) – und dass Google diese Möglichkeiten kennt. Ob sie tatsächlich zum Einsatz kommen, wissen sicher auch bei Google selbst nur eine Handvoll Mitarbeiter. 

Keine Panik!

Damit nicht an der falschen Stelle nun eine Panik ausbricht, weil Webmaster Angst vor Veränderungen bekommen: Man darf getrost davon ausgehen, dass normale Änderungen hier nicht betroffen sind. Der „Filter“ wurde auf bestimmte Spam-Muster geschärft und wird aller Wahrscheinlichkeit nach auch nicht bei der ersten Modifikation nach einer Rankingveränderung anschlagen. Google wird sicherlich mehrere solcher Reaktionssignale abwarten, auswerten und erst bei einer hohen Signifikanz Maßnahmen einleiten.
 

„In response to negative results, the spammer may remove the changes and, thereby render the long-term impact on the document’s rank zero. […] In response to delayed results, the spammer may perform additional changes in an attempt to positively (or more positively) influence the document’s rank. In either event, these further spammer-initiated changes may assist in identifying signs of rank-modifying spamming ...” (Quelle: US-Patent 8,244,722).
 

Intelligenterweise lässt das Patent offen, wann und ob nun eine Abstufung, ein Gleichbleiben oder gar eine Hochstufung des Rangs erfolgt und wie lange diese Transitionsphase dauert. Es wäre also durchaus auch denkbar, dass für eine „falsche“ SEO-Maßnahme augenscheinlich zunächst eine Belohnung in Form eines verbesserten Rankings vergeben wird! Erst nach Ablauf dieser Zeitverzögerung wird das eigentlich verdiente Ranking angezeigt. Verwirrung pur! Das erschwert natürlich das sowieso schon extrem schwierige Erkennen von Ursache und Wirkung hinsichtlich des Rankings noch mehr. Sollte der Algorithmus aus dem Patent tatsächlich häufiger Anwendung finden oder schon länger im Einsatz sein, werden sich gerade Suchmaschinenoptimierer harttun, überhaupt noch vernünftig abzuschätzen, welche Maßnahme nun positiv oder gar negativ wirkt. Auch das sollte man im Kopf behalten, wenn auf Konferenzen berichtet wird, wie Google auf diese oder jene Maßnahme reagiert hätte. Wir wissen jetzt, dass diese Reaktionen durchaus bei jedem unterschiedlich ausfallen können – für eine unbekannte Zeitdauer.
 

Die komplette Patentschrift kann übrigens online eingesehen werden unter http://einfach.st/gsep.

Das Patent wurde zwar erst am 14. August 2012 genehmigt, wurde aber bereits am 05. Januar 2010 eingereicht. Nimmt man den nötigen Vorlauf für Entwicklung, Tests und das Abfassen des Antrags hinzu, kann man davon ausgehen, dass diese Technik zur Spamerkennung schon seit 2009 oder noch früher bei Google im tatsächlichen Einsatz ist. Im Web geäußerte Spekulationen, ob das Patent Teil des nächsten Penguin-Updates werden könnte, darf man also getrost eine Absage erteilen. Die in diesem Patent beschriebenen Methoden wurden mit hoher Sicherheit schon lange vor Panda und Pinguin verwendet.