Google-Strafe - ja oder nein?

Was tun, wenn der Traffic plötzlich abstürzt?

Marcel Becker
Marcel Becker

Marcel Becker ist Head of SEO bei der Kölner Online-Marketing-Agentur rankingCHECK. Er ist leidenschaftlicher Inbound Marketer und Autor des E-Books „25 Inbound Marketing Tipps für Ihre Website“.

Mehr von diesem AutorArtikel als PDF laden

Hat Google mich abgestraft oder liegen die Gründe woanders? Hat Google einen manuellen Penalty verhängt oder ist die Website Opfer eines Algorithmus-Updates geworden? Oder kann es sein, dass es gar keine Abstrafung gab, sondern die Gründe für einen Traffic-Absturz hausgemacht, also technischer Natur sind?

Jeder, der sich mit dem Thema SEO beschäftigt, weiß, wie gut es sich anfühlt, wenn Suchmaschinen extrem relevanten Traffic auf die eigene Website weiterleiten. Hier geht es aber mal nicht um die schönen Seiten der Suchmaschinenoptimierung, sondern darum, wie man wieder aufsteht, wenn die Rankings, die Sichtbarkeit und der Traffic am Boden liegen, weil Google möglicherweise eine Strafe gegen eine Website verhängt hat. Denn wieder aufzustehen und besser dazustehen als vorher, gelingt nur den wenigsten. Und die Schuldigen müssen nicht immer Pandas, Pinguine oder Kolibris sein.

Gab es einen Absturz?

Das Wichtigste erst einmal vorweg: Immer Ruhe bewahren. Wenn man als Online-Marketer in den letzten Jahren eine Sache gelernt haben sollte, dann mit Sicherheit, dass man jede Situation ganz nüchtern und in Ruhe analysieren und erst dann weitere Schritte einleiten sollte.

So banal es auch klingen mag, aber bevor man ein so extrem negativ behaftetes Wort wie Google-Abstrafung oder Absturz verwendet, sollte man sichergehen, dass dem auch tatsächlich so ist: Erste Hinweise darauf, ob es einen Absturz bei Google gegeben hat, können SEO-Tools wie Searchmetrics, Sistrix und Co. liefern. Aber so gut diese SEO-Tools auch sind – Sichtbarkeit ist nicht mehr als ein erster Blick von außen auf eine Website und muss keineswegs parallel zum Traffic verlaufen. Da die meisten SEO-Tools ihre Daten in der Regel zu unterschiedlichen Zeitpunkten erheben, kann es sein, dass in einem Tool eine komplett andere Entwicklung zu sehen ist als in einem anderen. Auch Messfehler können vorkommen, denn SEO-Tools sind schließlich nicht perfekt …

Und nicht vergessen: Ab und zu hat Google auch mal unerklärlichen Schluckauf, denn auch Google ist nur eine Maschine und ebenso wie SEO-Tools auch nicht perfekt. Wenn sich die Sichtbarkeitswerte allerdings nach zwei bis drei Wochen nicht wieder erholen und die Entwicklung auf mindestens zwei SEO-Tools in etwa gleich schlecht aussieht, dann könnte man ein Problem haben. Hier mal ein extremes Beispiel eines ehemals extrem erfolgreichen Onlineshops, bei dem wohl etwas im Argen liegt:

Neben den gängigen SEO-Tools bieten sich auch Googles hauseigene Tools an, um einen Absturz oder eine Abstrafung zu identifizieren. Die Google-Webmaster-Tools (GWMT) werden von Tag zu Tag hilfreicher und liefern mittlerweile extrem wertvolle Daten. Zudem ermöglichen sie eine direkte Kommunikation zwischen Websitebetreiber und Google – das hat es vor ein paar Jahren so noch nicht gegeben.

Das Erste, was einem auf dem GWMT-Dashboard entgegenstrahlt, ist der Verlauf von Impressions und Klicks in den letzten drei Monaten. Diese Werte sind extrem aussagekräftig, da sie im Gegensatz zu den Daten von SEO-Tools eben nicht von außen sichtbar sind. Sollte es auch hier einen Knick nach unten geben, dann ist ein Absturz des organischen Suchtraffics schon extrem wahrscheinlich. Hier mal ein Beispiel:

Sichtbarkeiten hin oder her, am wichtigsten ist es immer, die Traffic-Daten aus der Webanalyse im Blick haben. Wenn die Traffic-Kurve für den organischen Bereich in etwa so aussieht und sich nicht wieder erholt, kann man wohl klar von einem Absturz sprechen:

Google Penalty – hat Google manuelle Maßnahmen ergriffen?

Bevor man stunden- oder sogar tagelange Analysen im Hinblick auf Backlink- oder Content-Qualität durchführt, sollte man als Erstes einen Blick in die Google-Webmaster-Tools werfen: Hat Google sogenannte „manuelle Maßnahmen“ gegen die entsprechende Website verhängt? Denn NUR in diesem Fall kann man von einer manuellen Abstrafung durch Google sprechen. Einen manuell verhängten Google-Penalty erkennt man an einer Meldung über manuelle Maßnahmen in den GWMT, jede andere Herabstufung ist algorithmisch oder durch technische Fehler verursacht. Infolgedessen hat man auch NUR bei einer manuellen Abstrafung die Möglichkeit, die erneute Überprüfung der Website (Reconsideration Request) zu beantragen. Bei einer algorithmischen Abstrafung im Zuge eines Google-Updates hingegen muss man in den sauren Apfel beißen und auf die nächste Iteration des entsprechenden Updates warten.

Sollte es also in der Tat eine manuelle Abstrafung gegeben haben, wird es in der Regel folgendermaßen dazu gekommen sein: Aufgrund eines algorithmischen Verfahrens zur Ermittlung von Spamsignalen oder des Eingangs einer Spammeldung hat sich ein Google Search Quality Rater – also ein echter Mensch – die Website angesehen und entschieden, dass diese gegen die Google-Richtlinien für Webmaster verstößt. Der nächste Schritt besteht dann darin, den Webmaster über die GWMT darüber zu informieren, dass Spammaßnahmen ergriffen wurden, welches die Gründe sind und ob die komplette Website (Übereinstimmungen auf der ganzen Website) oder nur Teilbereiche (Teilübereinstimmungen) betroffen sind.

Da die GWMT allerdings keine Auskunft darüber geben, welcher Bereich genau betroffen ist, ist eine detaillierte Analyse unumgänglich.

In Sachen manuelle Maßnahmen wird bei Google (http://einfach.st/gwmt6) selbst mittlerweile eine ordentliche Reihe an Ausführungen aufgelistet:

Bei den meisten dieser Meldungen liegt die Lösung auf der Hand. Sollte man allerdings über „unnatürliche Links zu Ihrer Website“ oder „Inhalte von geringer Qualität …“ benachrichtigt worden sein, verlangt Google, dass man die Ärmel hochkrempelt und alles wieder in Ordnung bringt. Einfach aussitzen wird nicht funktionieren. Da ist eine ordentliche Menge Arbeit zu erwarten.

Welche Bereiche der Website sind betroffen?

Nachdem man also festgestellt hat, dass es tatsächlich einen Absturz gegeben hat, muss man ermitteln, welche Bereiche es in welchem Umfang getroffen hat. Da Google mittlerweile keine Keyword-Daten mehr an Webanalyse-Tools übermittelt, führt spätestens jetzt kaum noch ein Weg an professionellen SEO-Tools vorbei. Um so schnell wie möglich ans Ziel zu kommen, prüft man den Sichtbarkeitsverlauf einzelner Hosts oder Verzeichnisse der entsprechender Domains.

Wenn hier einzelne oder mehrere Verzeichnisse oder Hosts abgestürzt sind, hat man den oder die betroffenen Bereiche schnell identifiziert.

Sollten allerdings nur einzelne URLs betroffen sein, bietet es sich an, den Zeitraum des Einbruchs so knapp wie möglich einzugrenzen und dann die „Verlierer-Keywords“ und die „verlorenen Keywords“ innerhalb dieses Zeitraums genau unter die Lupe zu nehmen.

Wie komme ich aus einer manuellen Abstrafung wieder heraus?

Wie man vorgeht, wenn man von „unnatürlichen Links“ betroffen ist, hat Bastian Grimm in der letzten Website Boosting in seinem Artikel „Wie gut kennen Sie Ihr Linkprofil?“ beschrieben: Schädliche Links ermitteln, abbauen oder entwerten (Disavow-Tool) und eine erneute Überprüfung der Website beantragen. Eine Menge Handarbeit also.

Sollte man allerdings ein Problem mit seinem Content in Form der manuellen Maßnahme „Inhalte von geringer Qualität …“ haben, dann heißt es auch hier: Ärmel hochkrempeln. Wenn man bisher gar keine oder nur extrem dünne Inhalte auf seiner Website hatte, liegt die Lösung auf der Hand. Es müssen (mehr) Inhalte mit (mehr) Mehrwert her. Hier gibt es kein Erfolgsrezept vom Reißbrett, man muss schlicht und ergreifend die User glücklich machen. Nicht mehr und nicht weniger. Sollte man überhaupt keine Ahnung haben, was Mehrwert bedeutet, muss man sich in die Lage der Websitebesucher versetzen und versuchen, die folgenden Fragen über seine Dienstleitungen oder Produkte zu beantworten:

Sollten zumindest ein paar dieser Fragen durch Content in Form von Texten, Videos, Ratgebern, Whitepaper, Tools, Widgets etc. beantwortet werden, haben die Besucher der Website und letztendlich auch Google kein Problem mehr mit den Inhalten. Also: Wertvolle Inhalte bereitstellen und erneute Überprüfung (Reconsideration Request) beantragen.

Die guten alten Klassiker, auch „Website-Technik“ genannt

Sollte es keine manuelle Abstrafung durch Google gegeben haben, sollte man sich erst einmal mit ein paar technischen Dingen bezüglich der eigenen Website beschäftigen. Ganz einfach deshalb, weil das in der Regel weniger Arbeit ist, als herauszufinden, ob man Opfer eines Algorithmus-Updates geworden ist. Die Robots.txt-Datei und das Robots-Metatag sind dabei die Klassiker schlechthin, werden allerdings oft als Letztes geprüft. Durch Befehle in der Robots.txt und/oder durch einen fehlerhaften Einsatz des Robots-Metatags kann man dem Google-Crawler den Zutritt zu bestimmten Inhalten einer Website verwehren. Man sollte sich also die Robots.txt ansehen und sicherstellen, dass der Googlebot nicht komplett bzw. für bestimmte Verzeichnisse oder Dateien ausgeschlossen ist wie in diesen Abbildungen:

Sollte mit der Robots.txt alles in Ordnung sein, nimmt man sich die Seitenbereiche, die vom Absturz betroffen sind, vor, und prüft den Einsatz des Robots-Metatags. Im Idealfall sollte dieses so aussehen:

Ist es aber anstelle von „index“ auf „noindex“ gesetzt, fliegt die Seite aus dem Google-Index. Vor allem bei Onlineshops sollte man den automatisierten Einsatz des Metatags hinsichtlich der Paginierung von Kategorien im Auge behalten.

Eine weitere technische Absturzursache sind falsch eingerichtete oder nicht vorhandene Weiterleitungen. Ändert sich bspw. im Zuge eines Relaunches die komplette URL-Struktur einer Website oder verschiebt sich auch nur die URL eines einzigen relevanten Inhaltes der Website, so sollte man dafür Sorge tragen, dass sowohl Besucher als auch Suchmaschinen dies mitbekommen bzw. nicht darunter leiden müssen. Wenn man dies nicht tut, geht es mit extrem hoher Wahrscheinlichkeit bergab, so wie bei dieser bekannten Wohltätigkeitsorganisation:

Auf „technisch“ übersetzt bedeutet dies, dass man die URLs, auf denen die Inhalte einst lagen, dauerhaft auf exakt diejenigen URLs weiterleitet, auf denen sich die entsprechenden Inhalte jetzt befinden. „Dauerhaft“ meint hier, dass man einen sog. 301-Redirect einrichtet und keinesfalls eine 302-Weiterleitung – leider oft die Standardeinstellung in einigen CMS oder Shopsystemen. Für den durchschnittlichen Internetuser ist dies erst einmal egal, da es für sie oder ihn ohnehin nicht sichtbar ist. Aus der Perspektive von Suchmaschinen wird eine 301-Weiterleitung jedoch als dauerhaft (permanent) eingestuft und in der Regel werden auch Vertrauen und somit Rankings auf die neue URL übertragen.

Ein weiterer hausgemachter Fehler, der zum Absturz einer Domain führen kann, ist der nicht korrekte Einsatz von Canonical-Tags. Das Canonical-Tag wurde entwickelt, um Suchmaschinen mitzuteilen, wo sich die Originalquelle eines Inhalts befindet, und somit das uralte Duplicate-Content-Gespenst zu vertreiben. Da doppelte Inhalte allerdings die wertvollen Crawling-Ressourcen von Suchmaschinen in Anspruch nehmen, sollte man Google und Co. mitteilen, dass eben nur die eine Quelle gecrawlt, indexiert und gerankt werden soll. In der Praxis kommt es oft vor, dass derselbe Content mehrmals auf einer Website vorhanden ist und das für den User auch Sinn macht. So zum Beispiel bei einem Damenschuh, der bei einem Onlineshop für Schuhe als Produkt in den Kategorien Damen, Sales und bei der entsprechenden Marke zu finden ist. Die Pfade müssen dabei in der URL abgebildet werden. Hier muss man eine URL als Original definieren und die anderen URLs mit identischem Inhalt werden mit einem Canonical-Tag versehen, welches auf die Originalseite zeigt:

Um den fehlerhaften Einsatz von Canonical-Tags auszuschließen, sollte man also prüfen, dass die vom Absturz betroffenen URLs ein Canonical-Tag integriert haben, das auf sich selbst zeigt und eben NICHT woanders hin.

Neben Robots-Datei und Metatag, falschen Weiterleitungen und fehlerhaft gesetzten Canonicals kann auch die Umstellung der internen Verlinkung einer Website einen Rankingabsturz zur Folge haben. Sollte man beispielsweise die Navigation umgestellt oder zusätzliche Linkboxen eingebaut haben, kann dies dazu führen, dass Google bestimmte Bereiche der Website anders gewichtet und dies Auswirkungen auf Rankings hat.

Algorithmus-Updates: Panda, Pinguin und der Rest des Google-Zoos

Sollte es keinen manuellen Penalty gegeben haben und mit der Technik auch alles stimmen, bleiben nicht mehr viele Optionen, den Schuldigen zu finden. Und der heißt in diesem Fall: Google.

Allerspätestens, seitdem Google die Content-Daumenschrauben angezogen und den Panda losgelassen hat, sollte man sich ersthafte Gedanken über die Qualität der eigenen Inhalte machen. Vorausgesetzt, man hat überhaupt Content, wie findet man jetzt heraus, ob der eigene Content gut ist? Gut für User und somit auch gut für Suchmaschinen?

Ein guter Indikator für die Qualität eines Inhalts kann die durchschnittliche Verweildauer auf den entsprechenden URLs oder Seitenbereichen sein. Natürlich gibt es auch Ausnahmen und der User findet blitzschnell genau das, wonach er gesucht hat, aber das ist ein anderes Thema. Richtwerte kann man hier schlecht nennen. Allerdings kann es helfen, sich einen Inhalt einmal sorgfältig durchzulesen, einmal zu überfliegen und dann den Mittelwert zu bilden. Idealerweise finden sich auch ein paar Kollegen und Bekannte, die das zusätzlich tun. Sollte man dies im größeren Stil planen, bieten sich Crowdsourcing-Dienste dafür an. Weichen die tatsächlichen Besuchszeiten in der Webanalyse also stark nach unten ab, kann man davon ausgehen, dass man ein Problem mit der Qualität seiner Inhalte hat und die Rankingabstürze auf eines der vielen Panda-Updates zurückzuführen sind.

Eine weitere Möglichkeit, in eine algorithmische Abstrafung hineingeraten zu sein, sind eigehende Links, die gegen die Google-Webmaster-Guidelines verstoßen. Hier hat man es dann mit dem berühmt-berüchtigten Pinguin-Update zu tun. Um ein erstes Gefühl dafür zu bekommen, wie natürlich das eigene Linkprofil ist, sollte man sich diverse Linkmetriken ansehen und nach auffälligen Mustern suchen. Denn wenn schon SEO-Tools diese Muster in Sekundenschnelle aufzeigen können, kann man sicher sein, dass Google dazu auch in der Lage ist und entsprechende Maßnahmen einleitet. Wie man das Risiko des eigenen Linkprofils bewertet und welche Schritte man einleiten sollte, ist ebenfalls in Bastian Grimms Artikel aus der letzten Ausgabe der Website Boosting nachzulesen. Sollte sich also herausstellen, dass man Opfer des Pinguin-Updates geworden ist, geht man ähnlich vor wie bei der manuellen Maßnahme wegen „unnatürlicher Links zu Ihrer Website“: Schädliche Links identifizieren, abbauen bzw. entwerten und …. abwarten bis zum nächsten Algorithmus-Update. Wie bereits erwähnt, hat man bei algorithmischen Abstrafungen eben nicht die Möglichkeit, eine erneute Überprüfung zu beantragen.

Neben algorithmischen Abstrafungen kann ein Rankingabsturz aber auch andere durch Google-Updates verursachte Gründe haben. Hier braucht man nur an die Local-/Maps-Integrationen zu denken, die über Nacht einer Vielzahl von Branchenverzeichnissen ihren Platz in den Google-Ergebnissen streitig gemacht haben. Von einer Abstrafung kann man hier nämlich keineswegs sprechen, wohl aber von einer Verdrängung durch Googles hauseigene Produkte. Ähnlich verhält es sich wohl beim Thema Knowlege Graph, Flugsuche, Hotelsuche, Versicherungsvergleich und allem Weiteren, was dort noch in der Pipeline ist. Die einzige Möglichkeit, solchen Entwicklungen gelassen entgegenzusehen, kann nur darin bestehen, sein Geschäftsmodell nicht allein von der Gunst oder Missgunst eines einzigen Systems, nämlich des vielleicht mächtigsten Konzerns der freien Marktwirtschaft, abhängig zu machen. Also ran an die Arbeit!