Negative SEO – die dunkle Seite der Suchmaschinenoptimierung

Bastian Grimm
Bastian Grimm

Bastian Grimm verantwortet bei der Peak Ace AG die Bereiche Suchmaschinenoptimierung sowie Performance-Content-Marketing und blickt dabei auf mehr als 15 Jahre Erfahrung im Performance-Marketing bzw. SEO zurück. Peak Ace ist eine 2008 gegründete, international tätige Performance-Marketing-Agentur mit Sitz in Berlin. Mit mehr als 100 Mitarbeitern realisiert Peak Ace Kampagnen in mehr als 20 Sprachen auf Muttersprachler-Niveau, wofür wir u. a. zweifach mit dem Drum Search Award 2018 ausgezeichnet wurden. Unser technologieorientierter Ansatz ermöglicht es uns, flexible, datengetriebene Lösungen für alle relevanten Performance-Marketing-Kanäle anzubieten – damit helfen wir unseren Kunden, ihre Marketingausgaben effizienter einzusetzen und im Ergebnis deutlich profitabler zu arbeiten.

Mehr von diesem AutorArtikel als PDF laden

Kaum ein Thema erhitzt die Gemüter der SEO-Szene derzeit so sehr wie „Negative SEO“ und daran ist auch Suchmaschinengigant Google nicht ganz unschuldig. So wurde man bis Anfang 2012 nicht müde, immer und immer wieder zu betonen, dass die eigenen Rankings nicht (negativ) durch Wettbewerber beeinflusst werden können – diese Sprachregelung wurde im Verlauf des Jahres dann mehrfach revidiert. Weil möglicherweise doch etwas dran ist?

Für Suchmaschinenoptimierer war 2012 ein ereignisreiches Jahr, vermutlich sogar das ereignisreichste seit dem Bestehen von Google. Mit rund 13.000 Tests und über 500 Änderungen am Algorithmus war die Änderungsfrequenz bereits 2010 enorm – und „gefühlt“ war es im vergangenen Jahr noch deutlich mehr. Diverse Iterationen von Google Panda ließen viele SEOs schlecht schlafen und mit der Betrachtung von On-Page-Kriterien war es bei Weitem nicht vorbei. Im Gegenteil: Am 24. April 2012 erblickte der Google Penguin die SEO-Welt – und eine signifikante Menge Domains wurde wegen manipulativer Linkaufbaumethoden auf die hinteren Ränge der Suchergebnisse verwiesen. 
Was das alles mit Negative SEO zu tun hat, fragen Sie? Eine berechtigte Frage – noch ein wenig Geduld! Zuallererst einmal gab es ebenfalls im April eine kleine, aber durchaus wichtige Änderung in der Google-Webmaster-Hilfe. Hier geht es konkret um eine Antwort auf die Frage, ob Wettbewerber das Ranking der eigenen Seite beeinflussen bzw. einer fremden Seite schaden können. Im Januar 2012 hieß es zunächst, das wäre nicht möglich, im April dann, es wäre nahezu nicht möglich. Aktuell liest sich Googles Statement dazu wiederum anders, wie bereits in der letzten Ausgabe der Website Boosting erwähnt wurde:
„Google works hard to prevent other webmasters from being able to harm your ranking or have your site removed from our index.” (http://einfach.st/workhard) 
Es lässt sich hier feststellen, dass Google mit der derzeit offiziellen Sprachregelung nunmehr die wohl politisch perfekte Antwort gefunden hat: von „nicht“ über „fast nicht“ bis hin zu „wir arbeiten hart daran, dass es nicht passiert“. Damit gibt man zumindest indirekt zu, was schon seit vielen Jahren funktioniert: dass es möglich ist, einer Website extern zu schaden, indem man sie aus dem Index kegelt. Der zugehörige Begriff „Google Bowling“ existiert in der SEO-Szene bezeichnenderweise übrigens schon seit weit über zehn Jahren.   Aber nochmal kurz zurück in den April 2012, denn hier lassen sich noch weitere durchaus interessante Effekte beobachten: Zum einen taucht plötzlich, und das war vorher nicht der Fall, eine Vielzahl neuer Vorschläge im Google Suggest auf (Kombinationen wie etwa „Negative SEO Tactics“, „Negative SEO Services“ und vieles mehr) und zum anderen lässt sich ein massiver Anstieg in der Nachfrage zum Keyword „negative seo“ in den Google Trends beobachten:

Google Penguin als Quelle des Übels?

Ganz so einfach ist es vermutlich nicht – aber offenbar gibt es irgendeine Art von Zusammenhang, denn das sind dann doch schon auffällig viele Zufälle. Schaut man sich also einmal an, was das ausgesprochene Ziel Googles mit dem Rollout von Penguin war: „To reduce webspam and promote high quality content″ – in gewohnter Google-Manier sehr abstrakt und extrem unkonkret. Zeit also, noch tiefer einzusteigen. Analysiert man einmal exemplarisch einige Gewinner und Verlierer (und dabei sei vorab bereits erwähnt, dass die Ergebnisse selbstverständlich immer pro Branche und ggf. Markt differenziert betrachtet werden müssen – obwohl der Rollout global erfolgte), so lässt sich relativ schnell feststellen, dass Google mit dem Penguin-Update primär gegen manipulativen Linkaufbau vorgegangen ist. Das Ziel: Qualität bevorteilen, manipulierte Linkprofile schlechter bewerten.

„Durch das Anziehen der Zügel erleichtert Google ungewollt auch Negative SEO.“

Von Patterns und Thresholds

Um eine Manipulation erkennen zu können, benötigt man grundsätzlich nichts weiter als ein Muster („Pattern“) sowie Vergleichs- bzw. Schwellwerte („Thresholds“), anhand derer die jeweiligen Daten ausgewertet werden können. Wäre man nun also an Googles Stelle, könnte man sich zum Beispiel einen Überblick darüber verschaffen, mit welchen Begrifflichkeiten bzw. Keywords eine Domain (von extern) verlinkt wird. Hierzu müssen lediglich alle Ankertexte aggregiert, normalisiert und anschließend gruppiert werden.

Anhand dieser einfachen Analyse lässt sich z. B. relativ schnell feststellen, ob manipulativer Linkaufbau betrieben wurde. Dominiert hier eins (oder gar mehrere) der sogenannten Money-Keywords (Begriffe, unter denen die Domain gefunden und mit denen Umsatz generiert werden soll) das Profil, ist relativ schnell klar, dass hier mit hoher Wahrscheinlichkeit ein plumper SEO-Manipulationsversuch vorliegt. In einem natürlichen Linkprofil wäre hier der Marken- und/oder Domainname der dominante Ankertext. 
Und bitte nicht vergessen: Das ist vermutlich der einfachste und primitivste Ansatzpunkt, eine Manipulation zu erkennen. Google ist mit Penguin bereits beim Rollout im April, aber insbesondere in den darauf folgenden Re-Iterationen bzw. Aktualisierungen des Algorithmus, deutlich weiter gegangen. Ohne jetzt in aller Tiefe auf die möglichen Penguin-Komponenten einzugehen, lassen sich diese dennoch in mindestens drei Gruppen aufteilen: exemplarisch – pro Gruppe – einige recht leicht messbare Metriken:

  1. Ankertext-Metriken: Nur kommerzielle Ankertexte? Nur Exact-Match-Ankertexte? Kein (oder wenig) Brandanteil? Prozentuale Verteilung pro URL, Verzeichnis und auf Domainebene? Etc.
  2. Verteilungsmetriken: Verhältnis von Start- vs. Unterseitenlinks, Verhältnis Follow- vs. Nofollow, Verhältnis Brand vs. Money, Verhältnis optimierte Links, Verhältnis hochwertige vs. minderwertige Links, Verhältnis einzelner Linkarten (Verzeichnisse, Bookmarks etc.) im Vergleich zum Gesamtprofil, Verhältnis von Links aus nicht relevanten Ländern? Etc.
  3. Qualitätsmetriken: Qualität der Quelldomains (typische SEO-Domain, wo wurde der Link platziert, wie sieht das Gesamtprofil der Quelle aus?), Geschwindigkeit (Linkwachstum insgesamt, Linkwachstum Brand- vs. Money), Relevanz (Quelldomain, Quellseite, Ankertext bzw. Link passend zum Content)? Etc.

Kombiniert man dann diese zu einer Analyse – und es darf absolut davon ausgegangen werden, dass Google dies unter Verwendung von weit mehr Daten tut, als in den SEO-Tools derzeit sichtbar sind – so wird deutlich, wie mächtig diese Vorgehensweise ist. Und offenbar ist hier noch Luft nach oben, denn Google hat bei Weitem noch nicht alle Seiten identifiziert, die eigentlich mit den Penguin-Updates hätten getroffen werden müssen, aber durchaus schon einige.


Penguin als Ursache für Negative SEO?


Um es gleich vorwegzunehmen: Das Thema Negative SEO ist deutlich älter als Penguin bzw. der zugehörige Rollout im April 2012. Insbesondere in den Bereichen Glücksspiel und Erwachsenenunterhaltung gehört das Ganze schon relativ lange zur Tagesordnung – das liegt aber insbesondere auch daran, dass hier (immer noch) ein enorm hoher Grad der Automatisierung im Linkaufbau vorherrscht. Muster wurden historisch erzeugt (und häufig nicht bestraft), die Vorgehensweisen im Linkaufbau sind schlicht komplett anders. Und nicht nur Linkaufbau funktioniert hier anders, das gilt für gesamte Branchen und Industrien.

„Seit es Strafen für unnatürliche Linkmuster gibt, wurden unliebsame Mitbewerber mit Negative SEO attackiert.“

Ungünstigerweise hat Google aber – mit dem teils exzellent umgesetzten Update, welches in vielen Fällen durchaus „aggressiv“ reagiert – einen (möglicherweise unerwarteten) Nebeneffekt ausgelöst: Negative SEO ist ein Stück weit von den weniger öffentlichen Branchen in den Mainstream gewandert. Und das ist auch nachvollziehbar, denn wenn ein Algorithmus darauf aus ist, Anomalien zu ermitteln und diese mit einer Rückstufung zu beantworten, warum sollte es dann nicht (einfacher) möglich sein, diesen Effekt bewusst auszulösen?

SEO-Tools – Fluch und Segen zugleich

Selbstverständlich ist ein Tool immer nur so gut wie der Anwender, der verstehen muss, was hinter den Zahlen und Zusammenhängen steht. Die richtigen Tools machen gegenüber der manuellen Analyse vieles einfacher und vor allem deutlich effizienter. SEO wird zumindest in Ansätzen ein Zahlenspiel und vor allem aber eins: extrem transparent! Jede SEO-Strategie ist spätestens nach erfolgreicher Umsetzung für jeden (Wettbewerber) nachvollziehbar. On-Page-Maßnahmen lassen sich ableiten, Linkquellen liegen offen – und Gleiches gilt auch für potenzielle Schwachstellen einer Domain! Mit wenigen Klicks kann man sich nunmehr Linkprofile nebst Verteilung, Quellen und vieles mehr anzeigen lassen. Im Grunde genommen ist nahezu jede der oben genannten Analysen heute für jeden SEO ausführbar.

 „SEO-Tools erleichtern das Erkennen von Schwachstellen einer Domain – dieses Wissen lässt sich auch in schädlicher Form einsetzen.“

Weiß man also, auf welche Faktoren Google (derzeit) „empfindlich“ reagiert, und kombiniert dieses Wissen mit einer potenziellen Zielseite, so ist relativ schnell klar, wie die Zielsetzung lauten muss: 
„Das Auslösen mehrerer Muster durch Überschreiten von multiplen Schwellwerten.“
Und die erfolgversprechendsten Metriken bzw. die verwundbarsten Punkte einer Domain ermittelt man vorher über ein entsprechendes SEO-Tool (siehe Abbildung 3).

Alles Hirngespinste! Das funktioniert eh nicht!

Häufig finden sich Beiträge im Web, die die Behauptung aufstellen, dass Negative SEO nicht möglich sei – das ist eine Wunschvorstellung und leider schlichtweg falsch. Auch Negative SEO kann bisweilen harte Arbeit sein und muss richtig ausgeführt werden, um erfolgreich zu sein. Häufig herrscht hier eher theoretisches Wissen vor und es wird dann relativ dilettantisch versucht, z. B. mit 1.000 Links von eBay (womöglich stumpf auf die Startseite der Zieldomains) eine „Attacke“ auszuführen. Zum Glück sind solche eher amateurhaften Angriffe für Google dann doch recht leicht zu erkennen – es ist sehr wahrscheinlich, dass so was in der Regel von vornherein zum Scheitern verurteilt ist bzw. nicht ausreicht, um die Abstrafung einer Domain auszulösen. 
Hierin liegt offenbar der Grund, dass relativ häufig leichtsinnig behauptet wird, Negative SEO sei nicht möglich. Intelligent kombinierte Angriffspunkte (Geo-Location, Ankertexte, Geschwindigkeit, Menge, Themenumfeld und Linkziele) in der richtigen Dosierung und in extrem großer Anzahl sind eine Gefahr für nahezu jede Domain bzw. definitiv für jede Unterseite. Es ist übrigens durchaus möglich, über entsprechende Tools oder über Bestellungen auf einem der „Black Hat“-Märkte mehrere Millionen Links pro Tag zu generieren. Negative SEO ist also durchaus machbar, erfordert aber Sachkenntnis und einen gewissen analytischen Voraufwand.

„Einen 100%igen Schutz gegen Negative SEO gibt es nicht!“

Indikatoren für eine Attacke

Wie kann man erkennen, ob man Opfer einer Negative-SEO-Attacke ist? Die Antwort darauf ist, wie so häufig im SEO, nicht ganz trivial. Allem voran gilt es aber zu verstehen, dass viele Signale zwar Indikatoren sein können – aber nicht müssen! Meist treten folgende Umstände ein:

  1. Großflächige Rankingverluste: Kann ein Signal sein, möglicherweise handelt es sich aber auch schlicht um einen Filter oder ein technisches Problem auf der Seite.
  2. Extreme Spitzen im Linkgraphen: Im Vergleich zum bisherigen Linkwachstum ist eine extreme Volumensteigerung zu erkennen. Parallel dazu fallen auch signifikant mehr Links wieder weg – das liegt insbesondere darin begründet, dass nahezu alle Links in solchen Kampagnen automatisiert generiert und häufig im Nachgang durch den jeweiligen Seitenbetreiber wieder gelöscht werden.
  3. Extremer Anstieg von Links, verlinkenden Domains sowie Class-C-Netzen.
  4. Verdächtige Ankertexte oder auch deutlich mehr Money-Keywords: Je nach Art der Attacke gilt es, die verlinkenden Ankertexte im Auge zu haben. Gibt der Angreifer sich wenig Mühe, wird häufig mit Begriffen aus dem PPC-Segment (Porn, Pills, Casino) verlinkt wie z. B. mit dem Ankertext „Cialis“. Wird die Attacke professioneller ausgeführt, kann ein starkes Wachstum von mehr verteilten, hochkommerziellen Money-Keywords ein Indikator sein. 
  5. Links aus fragwürdigem Umfeld bzw. nicht passenden Themenbereichen: Neben den Ankertexten kann natürlich auch die eigentliche Quelldomain und die jeweils zugehörige Branchenzuordnung ein Indiz für einen Angriff bieten. Nimmt der Anteil verlinkender Domains aus „unpassenden“ Segmenten stark zu, so kann dies ebenfalls zu einem Problem werden.

Es ist zu beachten, dass häufig mehr als ein Indikator gegeben sein sollte, um relativ eindeutig auf Negative SEO schließen zu können bzw. zu dürfen.

Was kann man dagegen tun?

Vorsicht ist bekanntlich besser als Nachsicht. Überträgt man das auf die Suchmaschinenoptimierung, so ist eine Art Frühwarnsystem – neben einer sauberen On- und Off-Page-Optimierung – das wohl beste Mittel. Das strategische Ziel, vor allem in hart umkämpften Branchen, muss sein, sich grundsätzlich so wenig wie möglich angreifbar zu machen.
Negative SEO hat nahezu immer mit Off-Page-Maßnahmen – also dem vom Betreiber ungewollten Linkaufbau oder, konkreter, mit Linkspam – zu tun. Dies bedeutet aber nicht zwangsläufig, dass der On-Page-Bereich vernachlässigt werden darf. Eine Systemarchitektur, die beispielsweise das Generieren beliebiger Parameter korrekt und aktiv unterbindet (sei es mit einer 301-Weiterleitung oder der Implementation des Canonical-Tags), minimiert damit einen wichtigen Angriffspunkt. Gleiches gilt auch für das Verteilen von Content über vollständige RSS-Feeds, welches Tür und Tor für Contentdiebe öffnet. Auch das unerlaubte (Re-)Publizieren von Inhalten, noch bevor die eigentliche Quelle diese Seiten im Index platzieren kann, könnte im Rahmen einer gut gemachten Negative-SEO-Kampagne zu Problemen für den Seitenbetreiber führen, denn jetzt werden womöglich seine Seiten mit dem Originalcontent fälschlicherweise als Dubletten klassifiziert und ranken daher erst gar nicht.
Im Off-Page-Bereich sollte insbesondere darauf geachtet werden, möglichst wenig angreifbare Unterseiten im eigenen Portfolio zu haben. Das bedeutet ganz konkret: Unterseiten benötigen in gleicher Weise Links von autoritären Domains mit einfachen Brand-Ankertexten wie natürlich auch die Startseite. Gleiches gilt darüber hinaus für das gesamte Linkprofil: Wer bereits „hart am Wind segelt“ und möglicherweise aktuell deutlich mehr Money-Keywords als der Wettbewerb in Backlinkprofil besitzt, für den ist es vielleicht an der Zeit, diesen Zustand sukzessive aufzuarbeiten bzw. zu korrigieren – sofern er Bedenken hat, ein potenzielles Angriffsopfer zu sein. Mit anderen Worten: Wer ein möglichst natürliches Linkprofil hat, dessen Domain läuft weniger Gefahr, bei externen Attacken ungerechtfertigt bestraft zu werden.

Tipps zum Monitoring:

Die genannten Indikatoren sollten idealerweise im Rahmen einer effektiven Suchmaschinenoptimierung sowieso überwacht werden. Welches Tool man dabei nutzt, ist dabei eher zweitrangig. Grundsätzlich ist es keine schlechte Strategie, mehr als ein Tool zu verwenden, um einen möglichen Fehlalarm zu vermeiden bzw. eine „zweite maschinelle Meinung“ einsehen zu können. Es empfiehlt sich in jedem Fall, die Google-Webmaster-Tools zu nutzen! Aktivieren Sie unbedingt die E-Mail-Benachrichtigungsfunktion und haben Sie stets den Tab „Links to your Site“ im Auge. Darüber hinaus eignet sich z. B. auch die „Lost & Found“-Funktion von MajesticSEO hervorragend, um überproportionales Linkwachstum auszumachen. Mittels der „Link Alerts“ aus den LinkResearchTools können Sie sich automatisch über neue eingehende Links Ihrer Domain benachrichtigen lassen. Kombiniert man all diese Signalquellen, lässt sich häufig frühzeitig erkennen, wenn schlechtes Rankingwetter aufziehen sollte.

Googles Lösung für Negative SEO: Das Disavow-Tool

Auf der PubCon in Las Vegas, letztes Jahr im November, hat Google dann – in Person von Matt Cutts – das hauseigene Disavow-Tool vorgestellt. Nachdem Bing bereits Anfang Juli 2012 vorgelegt und ein Tool zum Entwerten externer Links vorgestellt hatte, zog der Suchmaschinenprimus dann Ende des Jahres nach. Wie man dieses Tool einsetzt, wurde in der letzten Ausgabe der Website Boosting (Nr. 17, S. 54-56) ausführlicher beschrieben. Es ist hauptsächlich dafür gedacht, Links zur Entwertung einzureichen, die man als mögliche Sünden der Vergangenheit nicht mehr selbst abbauen lassen kann oder die man nicht haben möchte. Die Linksetzungen durch Negative SEO fallen somit unter Letzteres. Dabei dürfte sich dies in der Praxis als sehr schwierig erweisen, denn kein SEO-Tool liefert die komplette Anzahl an minderwertigen Links, die einem von Neidern verpasst wurden. Es ist also eher wahrscheinlich, dass eine signifikante Menge dieser zweifelhaften Links verborgen bleibt. Und je nach Größenordnung sind das meist noch ausreichend viele, um die Seite nicht wiederkehren zu lassen. Nicht ganz unproblematisch ist auch, dass die Links selbst ja im Netz bestehen bleiben und von den SEO-Tools weiterhin zur Beurteilung herangezogen werden – auch wenn Google diese tatsächlich durch die Einreichung via Disavow-Tool entwerten sollte. Insofern bekommt man nach der Nutzung möglicherweise das Ranking zurück, aber fortan völlig falsche Kennzahlen geliefert. Eine weitere zahlengetriebene Beurteilung wird dann wohl sehr schwierig.

Ein weiterer Lösungsansatz aus der Praxis

In einem effektiv geführten Angriff wird der Angreifer gleichzeitig Start- und Unterseiten verlinken – und das macht auch relativ viel Sinn. Die Unterseiten deswegen, weil die Chance auf Erfolg – wie oben skizziert – deutlich größer ist. Die Startseite, um die Arbeit mit dem Linkprofil zu erschweren. Verschwindet eine Unterseite im Ranking, so kann eine Worst-Case-Lösung bedeuten, dass die alte URL zukünftig einen HTTP-Status 404 zurückliefert (die Seite wird also effektiv abgeschaltet) und die Inhalte unter einer neuen URL publiziert werden. Selbstverständlich ist auch das mit signifikantem Aufwand verbunden (sowohl der interne Umbau, aber dann natürlich auch der Umbau bestehender sauberer Links) – aber in einigen Fällen möglicherweise die letzte Option für den Betreiber. Anders bei der Startseite, da hier eine 404-Fehlerantwort natürlich nicht praktikabel ist. Mit diesem Umstand muss man wohl oder übel leben.

Abschließend einige Worte zum Thema Ethik

Die Auffassung, was ethisch korrektes Verhalten ist, dürfte wohl gerade im breiten Feld der Onlinebranche spürbar auseinandergehen. Es ist schon seltsam, wenn jemand einen Teil der eigenen Ressourcen nicht dafür aufwendet, die eigene Site weiter nach oben zu bekommen, sondern Mitbewerber darüber abzuschießen. Nicht unerwähnt bleiben sollte die Tatsache, dass auf den Schädiger im Falle, dass man ihm dies nachweisen kann, enorme Schadensersatzforderungen zukommen können. Solange sich mit dem Thema Negative SEO Geld verdienen lässt, wird es diese Services geben. 
Damit bleibt am Ende die wichtige Frage offen, ob Google dieses Problem irgendwann endgültig lösen kann. Die Erkennung von „Was ist gut, was ist schlecht?″ ist technisch – bei der Menge an Daten und potenziellen Signalen – allerdings sehr komplex und alles andere als einfach. Eine kurz- oder mittelfristige Lösung scheint zumindest nicht in Sicht zu sein. Und auch wenn möglicherweise im Lauf der Zeit mit der Verknüpfung von Autoreninformationen und gesetzten Links ein Teil der Linkanonymität entfällt, so ist es doch bereits jetzt schon nicht unmöglich, entsprechend Authorship-Signale zu fälschen …