Wie gut kennen Sie Ihr Linkprofil?

Bastian Grimm
Bastian Grimm

Bastian Grimm verantwortet bei der Peak Ace AG die Bereiche Suchmaschinenoptimierung sowie Performance-Content-Marketing und blickt dabei auf mehr als 15 Jahre Erfahrung im Performance-Marketing bzw. SEO zurück. Peak Ace ist eine 2008 gegründete, international tätige Performance-Marketing-Agentur mit Sitz in Berlin. Mit mehr als 100 Mitarbeitern realisiert Peak Ace Kampagnen in mehr als 20 Sprachen auf Muttersprachler-Niveau, wofür wir u. a. zweifach mit dem Drum Search Award 2018 ausgezeichnet wurden. Unser technologieorientierter Ansatz ermöglicht es uns, flexible, datengetriebene Lösungen für alle relevanten Performance-Marketing-Kanäle anzubieten – damit helfen wir unseren Kunden, ihre Marketingausgaben effizienter einzusetzen und im Ergebnis deutlich profitabler zu arbeiten.

Mehr von diesem AutorArtikel als PDF laden

Nie zuvor hat sich Suchmaschinenprimus Google des Themas Linkqualität in einer solchen Intensität angenommen wie im Jahresverlauf 2013. Die Penguin-Rollouts 2.0 sowie 2.1 (Algorithmus-Anpassungen), eine Vielzahl manueller Maßnahmen – auch gegen populäre Marken der deutschen bzw. internationalen Online-Branche – sowie nicht zuletzt diverse neue Werkzeuge wie das „Manual Actions Tab“ in den Google-Webmaster-Tools sind klare Indikatoren dafür, dass Google den minderwertigen Links nun endgültig den Garaus machen wird. Es ist also höchste Zeit, das eigene Linkprofil unter die Lupe zu nehmen, um möglichen Problemen vorzubeugen. Bastian Grimm zeigt auf, wie man dabei vorgehen kann.

Bereits im vergangenen Jahr gab es sie: erste seichte Anzeichen dafür, dass es so langsam wirklich Ernst werden würde, denn erstmalig in der Geschichte des Marktführers Google wurde eine dedizierte Komponente im Algorithmus verankert, die sich exklusiv mit der (verbesserten) Bewertung von Links und deren Qualität beschäftigt. Mit dem initialen Rollout des sogenannten Penguin-Updates im April 2012 erschütterte Google die SEO-Branche. Viele, nicht selten lang etablierte und bekannte Domains verloren nach dieser Algorithmus-Anpassung massiv an organischen Rankings und hatten bzw. haben demzufolge mit signifikanten Trafficverlusten zu kämpfen. Einigen entzog man gar die komplette „Google-Liebe“ und bis zum heutigen Tage konnten sich viele dieser Domains nicht mehr erholen.

Googles ausgesprochenes Ziel mit der Algorithmus-Veränderung war bzw. ist „[…] to reduce webspam and promote high quality content“ – in gewohnter Google-Manier sehr abstrakt und erst einmal nicht unbedingt hilfreich. Sicherlich, die Zielsetzung ist klar: bessere Ergebnisse. Aber für den geneigten SEO steht doch klar das „Wie“ im Fokus bzw. die Frage: Was hat sich in der Bewertung von Links konkret geändert und wo scheint es nunmehr erforderlich, zukünftig genauer hinzuschauen bzw. möglicherweise auch anders zu arbeiten?

Bevor sich diese Frage im Detail beantworten lässt, ist es zwingend erforderlich, das komplette Arsenal von Möglichkeiten bzw. Maßnahmen zu verstehen, mit denen Google derzeit arbeitet – denn es ist bei Weitem nicht immer nur der veränderte Algorithmus, welcher als mögliche Ursache für eine schlechtere Performance der Domain infrage kommt!

Algorithmische Filter

Um manipulativen Linkaufbau erkennen zu können, benötigt man grundsätzlich nichts weiter als ein (oder gar mehrere) Muster („Pattern“) sowie Vergleichs- bzw. Schwellwerte („Thresholds“), gegen die die jeweiligen Daten ausgewertet werden können. Ein relativ häufig verwendeter Filter reagiert beispielsweise auf (kombinierte) Werte in Bezug auf das Linkwachstum einer Domain. Hier könnten unter anderem die folgenden Dimensionen betrachtet werden:

  • Die Anzahl neuer Links über einen gewissen Zeitraum gemessen – beispielsweise innerhalb der letzten vier Wochen
  • Die Art der verwendeten Linktexte – beispielsweise die Ratio von kommerziellen vs. BrandLinks im Vergleich
  • Das Wachstum eingehender Links – für bzw. auf bestimmte URLs und/oder Verzeichnisse  
  • Linkwachstumstrends im historischen Vergleich – welche Links (kommerziell vs. Brand) von welchen Quellen (Blogs, Foren etc.) in welcher Anzahl (pro Tag, Woche etc.) wurden zuvor akquiriert

Es ist davon auszugehen, dass Google diese Werte ebenfalls im Vergleich zu potenziellen Wettbewerbern der gleichen Branche betrachtet und so in der Lage ist zu erkennen, welche Wachstumswerte „normal“ sind und welche eben möglicherweise nicht mehr. Dies erscheint zwingend notwendig, da sich die verschiedenen Branchen und das jeweils zugehörige Linkprofil zum Teil signifikant voneinander unterscheiden. Betrachtet man beispielsweise Seiten aus dem Bereich Online-Dating im Vergleich mit Nachrichtenportalen, so wird man feststellen, dass Erstere prozentual deutlich mehr Links auf Startseiten aufweisen (und analog dazu kann es also keine fixen Werte geben, die auf „Normalität“ hindeuten).

Die Folgen eines aktiven Filters sind dann, wie zu erwarten, vielschichtig: In den allermeisten Fällen verlieren entweder das betroffene Verzeichnis oder aber die betroffenen Keywords signifikant an Performance. Eine Mitteilung in den Webmaster-Tools gibt es nicht, da es sich hier um einen Automatismus handelt.

Das Search Quality Team

Neben den komplexen Automatismen wacht Google selbstverständlich auch mit manuellen Maßnahmen über die Qualität der Suchergebnisse. Hauptverantwortlich zeigen sich hierfür die Search Quality Teams in Mountain View bzw. Dublin – ergänzt um eine ganze Armada extern tätiger Quality Rater, die – nach vordefinierten Kriterien – verschiedenste manuelle Review- und Bewertungsaufgaben ausführen und diese Ergebnisse entweder an Tools oder eben die Search Quality Teams zurückspielen.

In der Vergangenheit war es nicht immer leicht, manuelle Eingriffe von maschinellen Reaktionen zu unterscheiden – und häufig wurde dann vermutet, eine Seite sei manuell abgestraft worden, wenngleich das aber gar nicht der Fall war, sondern hier bereits (vorher) ein Filter seine Arbeit verrichtet hatte. In der Folge wurde dann nicht selten ein Reconsideration Request mit dem Antrag auf Wiederaufnahme gestellt. Selbstredend konnte dieser nicht bearbeitet werden, da eben gar kein manueller Eingriff vorlag. Für Google wurde dies zu einem immensen Problem: Die schiere Masse an Reconsideration Requests konnte nicht mehr sinnvoll bearbeitet werden. Unter anderem aus diesem Grund entschied man sich für die Einführung eines neuen Menüpunktes in den Webmaster-Tools, welcher den verheißungsvollen Namen „Manuelle Maßnahmen“ (Original: „Manual Actions Tab“) trägt.

Manuelle Maßnahmen in den GWT

Google wird ja nicht selten für mangelnde Transparenz kritisiert – und so scheint diese Ergänzung in den Google-Webmaster-Tools (GWT) überaus sinnvoll – gibt doch die Darstellung zumindest ein erstes Gefühl von „… aha, deshalb liegt möglicherweise ein Problem vor“. Aber Google wäre nicht Google, wenn nicht bereits kurzfristig mindestens ein signifikanter Vorteil für die eigenen Prozesse bzw. Arbeitsweisen entstünde. Das Ergebnis dieser Umstellung: Das Einreichen eines Reconsideration Requests ist seit der Einführung des Tabs nur noch möglich, wenn dort auch entsprechend manuelle Maßnahmen ausgewiesen werden – und Google muss sich auf einen Schlag nur noch mit „begründeten“ Reviews beschäftigen.

Kritiker des Tabs bemängeln nunmehr, dass die aufgezeigten Probleme sowie die damit verbundenen Erklärungen zu ungenau seien. Häufig hört man zudem, dass die Meldungen keine klaren Rückschlüsse auf das eigentliche Problem zuließen. Eine der größten Herausforderungen für Google ist sicherlich, zum einen überhaupt Informationen preiszugeben, zum anderen aber eben gleichermaßen abstrakt zu bleiben und damit zu verhindern, dass die Details im Zweifelsfall wieder gegen den Algorithmus verwendet werden könnten – ein durchaus schmaler Grad.

Derzeit benachrichtigt Google unter anderem über die folgenden linkspezifischen Probleme, die auf Teile einer Domain oder eben auch auf die komplette Domain zutreffen können und entsprechend manuelle Maßnahmen nach sich ziehen:

  1. Unnatürliche Links zu Ihrer Website – Auswirkungen auf Links: Gemeint ist, dass Google in diesem Fall entsprechend „unnatürliche“ Links entdeckt hat, die auf die betroffene Domain verweisen. In der Webmaster-Hilfe ist weiterhin zu lesen, dass keine Maßnahmen gegen die Rankings der Domain verhängt, sondern die verdächtigen Links lediglich entwertet werden.
     
  2. Unnatürliche Links zu Ihrer Website: die derzeit wohl am häufigsten auftretende Meldung – mal mit und mal ohne konkrete Beispiele. Diese Meldung hat üblicherweise auch entsprechende Positionsverluste zur Folge.
     
  3. Unnatürliche Links von Ihrer Website: Entscheidend ist hier das Wort „von“. Diese Meldung weist auf verdächtige ausgehende Links hin, die von Ihrer Domain auf andere Domains verweisen.
„Auch wenn es drückt und zwickt: Geduld ist wichtig!“

Die nahezu tägliche Arbeit mit den GWT-Daten, dem Disavow-Tool (mehr dazu im weiteren Verlauf) sowie den Informationen aus dem Manual Actions Tab haben zudem zu einigen durchaus interessanten Beobachtungen geführt, die hoffentlich bei Ihrer täglichen Arbeit helfen:

  • Beispiele sind nur Beispiele: Es soll hier noch einmal explizit darauf hingewiesen werden, dass – sofern überhaupt vorhanden – die Beispiele, die Google bereitstellt, tatsächlich auch nur Beispiele sind. Es ist in mehr als 99 % aller Fälle also nicht damit getan, diese genannten Links zu entwerten (Abbau/Disavow) und danach einen sog. Reconsideration Request (Anfrage zur erneuten Prüfung) zu stellen. Daher die eindringliche Bitte: Das Verständnis für die genannten Beispiele ist ein wichtiger Faktor im Prozess möglicher Aufräumarbeiten. Nur wer etwaige Muster der Linkquellen (Inhaberschaften, Netzwerke, Anchortexte, Art der Links etc.) und/oder Linkziele (gleiche Unterseiten etc.) versteht, hat im weiteren Verlauf die Chance, auch alle anderen von Google als unnatürlich klassifizierten (aber Ihnen nicht aufgezeigten) Links zu finden und entsprechende Maßnahmen durchzuführen.
     
  • Der WebmasterTools-Links-Export: Das Interface in den GoogleWebmaster-Tools erlaubt die Anzeige von bis zu 1.000 Links. Wählt man die Exportfunktion (z. B. im CSV-Format), stellt Google dann bis zu 100.000 Links zur Verfügung – nach eigener Aussage sind dies die wichtigsten Links zu einer Domain. Ganz wichtig ist hierbei, dass es sich eben nicht um alle Links handelt, die auf eine Domain zeigen. Beachten Sie daher unbedingt im Verlauf des Artikels auch den Hinweis zum Thema Datenvielfalt bzw. Datenquellen. Weiterhin gilt es zu beachten, dass sich die hier zur Verfügung gestellten Daten regelmäßig ändern. Ein regelmäßiger Datenexport erscheint extrem sinnvoll.
     
  • DisavowFiles werden (zum Teil) automatisch verarbeitet: Google verarbeitet Anweisungen aus dem DisavowFile (Datei, die alle zu entwertenden Linkadressen enthält) teilautomatisiert; dies fällt beispielweise immer dann auf, wenn sich die gezeigten Beispiele im Manual Actions Tab verändern oder gar ganz wegfallen, es aber noch keine Antwort (egal, ob positiv oder negativ) auf den zuvor gestellten Reconsideration Request gegeben hat. Es ist davon auszugehen, dass Google hier versucht, den manuellen Aufwand so gering wie nur möglich zu halten und mit dem Prozessieren der Anweisungen möglicherweise auch den Quality Ratern Arbeit abzunehmen. Es lässt sich in diesem Zusammenhang generell feststellen, dass die GWT-Daten nicht immer synchron erscheinen – daher empfiehlt es sich, bevor ein Reconsideration Request gestellt wird, eine Wartezeit von etwa 48 Stunden einzuplanen, nachdem das Disavow-File das letzte Mal aktualisiert wurde. Damit vermeiden Sie schlicht, dass seitens Google mit dem noch nicht aktuellsten Datenbestand gearbeitet wird.
     
  • Mehrere manuelle Maßnahmen auf einmal: Es ist absolut nicht ausgeschlossen, dass eine Domain – zur gleichen Zeit – von mehreren manuellen Maßnahmen betroffen ist. Sollten Sie also in Ihrem GWTTab multiple Meldungen vorfinden, gehen Sie getrost davon aus, dass Sie evtl. mehr als nur ein Problem zu lösen haben. In der Praxis hat es sich bewährt, zuallererst die Meldungen zu bearbeiten, die irgendeine Art von konkreter Information beinhalten (ein betroffenes Verzeichnis, externe Linkquelle oder Ähnliches).

Wenn Filter und manuelle Maßnahmen nicht ausreichen: Penguin als Algorithmus-Komponente

Wie eingangs erwähnt, hat Google offenbar hinreichend erkannt, dass das primitive Filtern von Ergebnissen nicht ausreichend ist – und bei der ständig wachsenden Anzahl von Domains sind auch (mehr) manuelle Maßnahmen keine ausreichend skalierbare Lösung. Eine Anpassung des Kerns war also notwendig – der Algorithmus musste auf mehr Linkqualität hin getrimmt werden, was mit der Einführung von Google Penguin bereits 2012 entsprechend geschah. Erstmalig in der Geschichte des Marktführers wurde signifikant an den Bewertungskriterien für Links geschraubt. Über Details hüllt man sich hier, nachvollziehbarerweise, in Schweigen. Vorstellbar wären beispielweise:

  1. Die veränderte Gewichtung einzelner Kriterien: Denkbar ist, dass einzelne Kriterien (beispielsweise die Herkunft eines Links aus Forum, Blog etc.) nunmehr stärker (oder eben wenig stark) als Bewertungskriterium herangezogen wird, um festzustellen, welche Qualität ein einzelner Link aufweist.
     
  2. Das Hinzufügen/Entfernen von Kriterien: Darüber hinaus ist denkbar, dass Google im Laufe der Zeit feststellen musste, dass einzelne Kriterien eine nur unscharfe Betrachtung zulassen – ggf. wurden diese entfernt. Oder das Gegenteil ist der Fall: Möglicherweise ist man seitens Google deutlich weiter als gemeinhin bekannt: Denkbar wäre, dass beispielsweise mittels des sog. Traffic-Sampling-Verfahrens (Patentlink: einfach.st/gpat4) bereits Traffic als vorerst noch schwaches Signal einen Einfluss auf die „neue“ Linkqualität hat.
     
  3. Das Verändern von Eigenschaften einzelner Kriterien: Es erscheint nur logisch, dass einzelne Filter auch Verwendung innerhalb von Penguin finden bzw. entsprechende Muster und Schwellwerte analog der oben beschriebenen Arbeitsweise auch (angepasst) Einzug in Penguin erhalten haben.
     

TIPP

Starke Unschärfe in der Linkprofil-Betrachtung: Mit der Einführung des Google-Disavow-Links-Tools sind die Analyseergebnisse externer Linkprofile einmal mehr ungenauer geworden. War es in der Vergangenheit doch häufig so, dass es insbesondere „nur“ bei der Linkqualität unterschiedliche Meinungen gab, so ist es mittlerweile nahezu unmöglich, mit absoluter Gewissheit festzustellen, welche Links eigentlich für entsprechende Rankings verantwortlich sind – oder eben nicht. Das Problem, welches sich beispielsweise bei der Analyse einer Wettbewerberdomain stellt, ist die Tatsache, dass ohne Insiderwissen keine Informationen darüber vorliegen, ob möglicherweise bereits vorhandene Links über das Disavow-Links-Tool entwertet wurden. Dies führt unweigerlich dazu, dass der Betrachtende zum einen vollkommen falsche Verteilungsanalysen fährt („Der Wettbewerb hat aber dreimal mehr kommerzielle Links …!“) und zum anderen auch in der Einzelbetrachtung falsche Schlussfolgerungen ableitet („Der Wettbewerb hat diesen Link auch – und er schadet ihm ja nicht …!“). Behalten Sie dies bei Ihrer Arbeit unbedingt im Hinterkopf!

Da die Unterscheidung zu Filtern und manuellen Maßnahmen für das ungeübte Auge nicht immer leicht ist, im Folgenden die wichtigsten Penguin-Eigenschaften zusammengefasst:

  • Penguin ist eine LinkprofilNeubewertung: Unter Berücksichtigung der oben genannten veränderten Faktoren wird dem gesamten Linkprofil eine veränderte Wertigkeit zugewiesen.
  • In diesem Zusammenhang ebenfalls wichtig: Es gibt kein „Whitelisting – die geänderten Faktoren sind für jede Domain, egal, ob groß oder klein, gleich.
  • Es gibt keinen Timeout: Im Gegensatz zu manuellen Maßnahmen, die mit einem Ablaufdatum versehen sind (primär, weil nicht selten vergessen wird, im Anschluss an durchgeführte Aufräumarbeiten einen Reconsideration Request zu stellen), gibt es keinen PenguinTimeout. Es gilt: Werden Sie nicht aktiv, wird sich auch nichts an der (schlechteren) Performance Ihrer Domain ändern.
  • Es gibt keine Benachrichtigung in den GoogleWebmaster-Tools. KEINE! Das heißt im Umkehrschluss aber nicht, dass eine Domain nicht (zeitglich) von manuellen Maßnahmen und einem PenguinRollout betroffen sein kann.
  • Sie können keinen Reconsideration Request stellen – es gibt zwar für die sogenannten Kollateralschäden ein OnlineFormular (gdig.de/29), um Google zu informieren, dass eine Seite fälschlicherweise von Penguin betroffen ist, diese Daten werden allerdings ausschließlich zum Testen und zur Weiterentwicklung kommender Penguin-Iterationen verwendet, ein manuelles „Aufheben“ für betroffene Domains ist nicht möglich.

Analysen betroffener Seiten lassen dabei dennoch eine Vielzahl verschiedener Rückschlüsse zu. Allen voran das Team der LinkResearchTools.com hat in den vergangenen Monaten eine beachtliche Menge unterschiedlicher Analysen publiziert, welche sich allesamt mit einzelnen Penguin-2.0-Verlierer-Domains beschäftigten (http://einfach.st/paless). Hier lassen sich durchaus konkrete Gemeinsamkeiten feststellen (hier exemplarisch die Top 3):

  1. Überoptimierte Anchortexte (bspw. zu viele kommerzielle Begriffe) bei 11 von 12
  2. Links aus offensichtlichen/öffentlich bekannten Linknetzwerken bei 9 von 11
  3. Unnatürliche Verteilungen einzelner Metriken; bspw. Start-/Unterseitenlinks bei 6 von 8 oder Linkstärke-Verteilung bei 11 von 12

Die oben genannten Beobachtungen lassen alle einen durchaus konkreten Schluss zu: Nahezu alles, was im Linkbuilding auf offensichtliche Manipulation schließen lässt (und in der Regel sind dies nun einmal in der Vergangenheit erzeugte Muster), steht auf der „Penguin-Watch-List“ ganz oben. Und das wiederrum deckt sich auch mit der Ankündigung aus dem Google Search Quality Team:

„[…] führen wir eine Algorithmusänderung (‚Penguin‘) durch, die SEO-Methoden ins Visier nehmen (sic), die die Grenze zum Spamming überschreiten. Die Änderung wird das Ranking von Websites herabsetzen, die nicht konform mit unseren Richtlinien für Webmaster sind. Dieser Algorithmus ist eine weitere Maßnahme im Rahmen unserer Bemühungen, Webspam zu reduzieren und hochwertige Inhalte zu fördern.“ (Quelle: http://einfach.st/gut).

Linkrisikoanalysen: Mögliche Vorgehensweisen

Um direkt mit der richtigen Erwartungshaltung einzusteigen: Linkrisikoanalysen sind aufwendig, benötigen demnach eine Menge Zeit, extrem viele Daten und einiges an Erfahrung im Umgang mit Links im Allgemeinen.

„Eine vollautomatisierte Lösung zur Linkrisikoanalyse existiert nicht! Selbstverständlich gibt es Tools, die die Arbeit signifikant vereinfachen können, aber es geht nicht ohne gesunden Menschenverstand und – schlussendlich – manuelles Überprüfen!“

Im Folgenden wird das Vorgehen exemplarisch mit den LinkResearchTools (kurz LRT) – skizziert. Die LRT enthalten, speziell zur Bewertung potenzieller Linkrisiken das sogenannte Tool Link Detox, welches eine regelwerkbasierte Betrachtung und Bewertung für jeden einzelnen Link des jeweiligen Linkprofils vornimmt. Diese einzelnen Werte ergeben schlussendlich, vereinfacht formuliert, eine Gesamtbewertung und weiterhin erfolgt die Klassifizierung in entsprechende Risikokategorien. Wie bereits zu Beginn erwähnt, ist jedes Tool nur so gut wie die vorhandene Datenbasis – aus diesem Grunde sollten mindestens die Links aus den Google-Webmaster-Tools exportiert und als CSV-Datei dem Link-Detox-Modul zur Verfügung gestellt werden, da diese Daten kostenlos zugänglich sind. Grundsätzlich gilt aber ganz klar: Je mehr Daten, desto genauer die Betrachtung bzw. Bewertung des Profils.

„Listen aus vergangenen Linkaufbau-Aktivitäten sind ‚pures Gold‘ – analysieren Sie diese unbedingt zuallererst! Nicht selten lassen sich hier bereits erste, oft hausgemachte Probleme feststellen.“

Sofern möglich und verfügbar, sollten Sie darüber hinaus folgende (großteils kostenpflichtige) Datenquellen ebenfalls in Betracht ziehen:

  • MajesticSEO.com (via API oder die ExportOption „Advanced Report”)
  • ahrefs.com (ebenfalls via API oder die ExportOption „Raw Data Export“)
  • Searchmetrics Suite – Backlink Research (100.000 via Export; ansonsten per API)
  • Sistrix Toolbox – Linkmodul (via API)
  • Moz.com Site Explorer (u. a. kostenlose API, allerdings mit starker Limitierung der Anfrageanzahl und bis max. 1 Mio. Zeilen pro Monat)

Die LinkResearchTools verfügen über eine automatische De-Duplizierung der Linkdaten sowie die darauf folgende Live-Validierung. Es wird dabei vor dem Erstellen des Reports für jeden Link überprüft, ob dieser tatsächlich auch noch vorhanden ist. Man kann daher getrost alle toten Links herausfiltern und den Arbeitsaufwand so signifikant minimieren.

Weitere Tools zur Linkrisikoanalyse

Der Markt wird in diesem Segment derzeit im Wesentlichen von drei Softwareanbietern besetzt – allesamt sogenannte SaaS-Lösungen (Software as a Service; keine Installation auf dem eigenen PC notwendig). Neben den im Beitrag erwähnten LinkResearchTools.com bieten – ohne Anspruch auf eine vollständige Aufzählung – folgende Unternehmen derzeit vergleichbare Funktionalitäten an:

LinkRisk.com: Die aus dem UK stammende Software erlaubt die Integration von Linkdaten via MajesticSEO, Ahrefs und Moz (jeweils per API) sowie den Upload der Google-Webmaster-Tools-Linkdaten. Das kleinste Paket ist ab 149 GBP monatlich zu nutzen und erlaubt dabei die Analyse von bis zu 250.000 Links pro Domain. Analog zu den LRT gehören das Generieren von Risikowerten pro Link, das Generieren von Disavow-Files und das Erstellen von To-do-Listen (Links mit verschiedenen Tasks zum späteren Abarbeiten) zum Standardfunktionsumfang.

cognitiveSEO Unnatural Link Detection: Als Teil der congnitiveSEO-Toolbox bereits ab 99 US$ monatlich verfügbar; Die Software ist vom Funktionsumfang und dem Regelwerk der Klassifizierungen her nicht mit den LRT oder LinkRisk vergleichbar (funktionell deutlich einfacher gehalten = weniger Regeln, weniger Daten), bietet aber für kleinere Domains möglicherweise einen schnellen Einstieg in die Materie. Es sei allerdings darauf hingewiesen, dass man dort derzeit ausschließlich Linkdaten über MajesticSEO bezieht. Das Linkprofil kann somit – insbesondere bei Domains im deutschsprachigen Raum – möglicherweise stark unvollständig sein.

Link Detox in der Praxis

Das Verwenden des Link-Detox-Tools bei den LRT ist denkbar einfach: Man definiert die zu analysierende Domain (unbedingt die Analysefunktion „mit und ohne www“ wählen, denn häufig werden ansonsten Links übersehen) und wählt das Themenumfeld der Domaininhalte aus. Weiterhin sollte man angeben, ob die Domain manuelle Maßnahmen aufweist und – sofern bereits verwendet – das aktuelle Disavow-File hochladen (beides ist selbstverständlich nur dann möglich, wenn man seine eigene Domain analysiert; für fremde Domains kann man diese beiden Punkte einfach ignorieren). Zu guter Letzt ergänzt man den Report um die eingangs genannten externen Linkdaten (sofern vorhanden) und startet dann einen DTOX-Report im „klassischen Modus“. Danach dauert es, je nach Menge der zu analysierenden Links (und Systemauslastung), von mehreren Minuten bis hin zu einigen Stunden, bevor der fertige Report entsprechend zur Verfügung steht.

In der Praxis hat es sich bewährt, entweder mit der hier gezeigten Risikoverteilung zu arbeiten – und mit den „kritischsten“ Links zu beginnen (Sie sollten in jedem Fall die Links der Kategorien „High Risk“ und aufwärts überprüfen) oder alternativ in den Tab „Rules Breakdown“ zu wechseln und dort die für Sie relevanten Regeln zu identifizieren (bspw. „TOX1“ zeigt Ihnen alle Linkquellen, die zum aktuellen Zeitpunkt nicht mehr im Google-Index vorhanden sind) und diese entsprechend abzuarbeiten. Selbstverständlich lassen sich diese Vorgehensweisen auch entsprechend kombinieren oder um einen Filter ergänzen, der diese Regeln nur auf kommerzielle Anchortexte anwendet.  

Egal, für welche Vorkategorisierung Sie sich auch entscheiden mögen, es folgt der wohl am wenigsten spannende Teil der Analysearbeiten: das manuelle Review der einzelnen Links. Im Klartext bedeutet das nichts anderes, als dass Sie, je nach Umfang des Linkprofils, die kommenden Stunden (oder Tage bzw. Wochen) damit verbringen werden, viele schöne und weniger schöne Webseiten zu besuchen, um Linkintegrationen anzuschauen und zu bewerten. Achten Sie in dem Zusammenhang übrigens auch unbedingt darauf, einen aktuellen Virenscanner auf Ihrem System installiert zu haben.

Selbstverständlich könnten Sie sich jetzt die gefilterten Daten aus dem Link-Detox-Report als Excel-Spreadsheet exportieren und von dort jeden Link öffnen und entsprechend mit Kommentaren versehen, es geht aber auch deutlich effizienter: mit dem Link-Detox-Screener.

Das Prinzip des Screeners ist dabei gleichermaßen simpel wie effizient: Im oberen Teil des Fensters werden fortlaufend Informationen zu der jeweiligen Linkquelle gezeigt (u. a. der Anchortext, die zutreffenden Regeln aus dem DTOX-Bericht, der Risikowert sowie der Linkstatus) und unten erscheint die Linkquelle selbst, sodass damit das Öffnen der Seite im eigenen Browser-Tab überflüssig wird. Mit einem Klick kann man die Quelle dann beispielsweise auch für ein späteres Disavow markieren, mit entsprechenden Tags versehen (bspw. „Linkabbau“) etc. – sogar die Steuerung mittels der Pfeiltasten (und anderer Shortcuts) über die Tastatur ist möglich, was für maximale Zeitersparnis sorgt, wenn man sich einmal daran gewöhnt hat.

Ich hab‘ „schlechte“ Links – was nun?

Grundsätzlich stehen beim Linkmanagement drei mögliche Vorgehensweisen zur Verfügung:

  1. Gezielter Abbau von (möglicherweise) schlechten Linkquellen.
  2. Verwenden des Disavow-Tools für einzelne Links oder ganze Domains.
  3. Warten und hoffen, dass Google zukünftig in der Lage ist, schlechte Links 100%ig zu erkennen (sowie automatisch zu entwerten). Und natürlich darauf vertrauen, dass diese Links bis dahin keinen Schaden anrichten.

Die Praxis zeigt, dass die dritte Variante – zum aktuellen Zeitpunkt – nicht funktioniert. Das Auswerten mehrerer Hundert Beispiellinks, die Google für verschiedenste Domains zur Verfügung gestellt hat, zeigt ganz klar, dass ein signifikanter Anteil manueller Maßnahmen für Linkaufbau-Aktivitäten aus den Jahren 2009 bis 2011 verhängt wurde. Das erscheint insofern auch wenig überraschend, als dass in den vorgenannten Jahren der Linkaufbau über Artikelverzeichnisse, Foren, Web-Directories und andere, kaum relevante Linkquellen den Markt extrem dominiert hat. Geht man allerdings davon aus, dass Google die Betrachtung der einzelnen Signale weiter verbessern und verschärfen wird, scheint es durchaus angebracht, sich zeitnah von etwaigen Altlasten zu befreien, auch wenn sich zum aktuellen Zeitpunkt noch keine Performance-Einbußen (im Sinne von Traffic und/oder Rankings) feststellen lassen.

Schließt man vorgenannte Variante Nummer drei aus, verbleiben demnach Linkabbau sowie die Verwendung des Disavow-Tools. Bevor Letzteres im Detail betrachtet wird, seien an dieser Stelle einige Hinweise zum Linkabbau erlaubt:

  • Das Web befindet sich in konstanter Veränderung. Glaubt man Googles (inoffiziellen) Zahlen, so verändern sich bis zu 15 % des gesamten Internets (bzw. URLBestandes) täglich. In diesem Zusammenhang erscheint es vollkommen normal, dass einige URLs entsprechend nicht mehr verfügbar sind. Laut dem RFC 2612 (http://einfach.st/statcode) sind dabei serverseitig die HTTP-Statuscodes 404 (Not Found) bzw. 410 (Gone) auszuliefern. Somit gilt im Linkabbau: Im besten Fall – und zur Vermeidung potenzieller Muster – gehen minderwertige Linkquellen offline und liefern einen der vorgenannten Statuscodes aus (Google entfernt die betroffene Linkquelle nach mehrmaligem Aufrufen ebenfalls, sofern kontinuierlich der gleiche HTTP-Statuscode ausgeliefert wird).
     
  • Nicht immer ist es möglich, Linkquellen offline nehmen zu lassen – häufig besteht der Seiteninhaber, sofern überhaupt auf die Bitte der Linkentfernung reagiert wird, auf das Beibehalten der Inhalte, wenngleich dies nicht immer die beste Lösung zu sein scheint (denn Google hat genauso wenig Interesse an Content, welcher in der Vergangenheit ausschließlich zu SEOZwecken erschaffen wurde). Versuchen Sie dennoch, zumindest eine geringe textuelle Änderung herbeizuführen,  denn insbesondere bei vorsorglichem Linkabbau sollten Sie dringend vermeiden, dass eine große Anzahl Links einfach nicht mehr vorhanden ist (im Sinne von „vorher war das Wort verlinkt, nun ist es das nicht mehr“) – schlicht um hier kein Muster zu erzeugen, dass schlussendlich möglicherweise auch als negatives Signal gewertet werden kann. Gleiches gilt selbstverständlich auch für das übermäßige Verändern von „Dofollow“ auf „Nofollow“Links.
     
  • Wer kennt sie nicht – mal wieder eine EMail mit der Bitte um Linkentfernung … Soll ich oder soll ich nicht? Antworten oder ignorieren? Die Frage wird sich vermutlich nahezu jeder Webseitenbetreiber bereits mindestens einmal gestellt haben. Nachvollziehbar, kostet das Ausbauen und Beantworten doch kostbare, nicht vergütete Arbeitszeit. Damit Sie aber – als Linkabbauender – zumindest etwas mehr Chancen auf Erfolg haben: Das Ignorieren eines freundlichen Telefonanrufs fällt meist deutlich schwerer als das Ignorieren bzw. Löschen einer E-Mail. Versuchen Sie es!
„Am besten von Anfang an alles sauber dokumentieren – für den Fall der Fälle“

Und ganz wichtig: Betreiben Sie eine ausreichende Beweissicherung! Google bzw. das Search Quality Team will wissen, was Sie konkret gegen die Richtlinien-Verstöße unternommen haben. Dazu gehört auch eine vollständige Dokumentation über die Aktivitäten des Linkabbaus. Es empfiehlt sich also festzuhalten, welche Linkquellen Sie wann, wie, in welcher Frequenz und mit welcher Antwort – oder eben nicht – kontaktiert haben. Hier hilft beispielsweise ein Google-Docs-Spreadsheet enorm, um den Überblick zu wahren und das Vorgehen später transparent präsentieren bzw. bequem per Zugangslink weitergeben zu können.

Das Google-Disavow-Links-Tool

Nachdem Microsofts Bing bereits Anfang Juli 2012 vorgelegt und ein Tool zum Entwerten externer Links vorgestellt hat, zog Google dann Ende des Jahres 2012 nach. Wie man dieses Tool grundsätzlich einsetzt, wurde in den Ausgaben Nr. 17 und 18 der Website Boosting bereits ausführlich beschrieben. Es ist generell dafür gedacht, externe Links zur Entwertung einzureichen, auf die kein direkter Einfluss (mehr) besteht.

Wurde das Tool in der Vergangenheit nahezu ausschließlich reaktiv eingesetzt (beispielweise nach manuellen Maßnahmen), so hat Google erst kürzlich – in Person von Matt Cutts – dazu geraten, dass Disavow-Tool auch proaktiv, also im Sinne des Risikomanagements, einzusetzen (http://einfach.st/mcdisavow). Beispielhaft führt Cutts hier unter anderem die folgenden Szenarien an:

  1. Sie haben versucht, Links zu entfernen – aber der Seitenbetreiber will eben diese(n) nicht entfernen.
  2. Sie vermuten, Opfer eines Negative-SEO-Angriffs zu sein.
  3. Sie bemerken Links zu Ihrer Domain, mit denen Sie nicht in Verbindung gebracht werden wollen.
  4. Sie haben Angst davor, dass jemand gegen Sie einen Spam-Report einreichen wird.
  5. Sie können nachts aufgrund einiger Links, die auf Ihre Domain verweisen, nicht schlafen …!

Interessant zu beobachten ist, dass offenbar keinerlei konkrete Indikatoren für eins der genannten Szenarien gegeben sein müssen – das Tool kann im Grunde jederzeit verwendet werden, was ein weiteres signifikantes Risiko mit sich bringt: Der möglicherweise unerfahrene Benutzer kann hier dramatische Schäden an einer Domain anrichten, denn jedweder Link bzw. jedwede Domain kann – ohne Validierung – in ein Disavow-File übernommen und damit für ungültig erklärt werden. Bei falscher Benutzung könnte dies zum Komplettverlust sämtlicher Rankings führen. Benutzen Sie das Disavow-Tool also äußerst umsichtig und stellen Sie unbedingt sicher, dass hier tatsächlich nur schlechte Domains enthalten sind!

Reconsideration Request: Der Antrag auf „erneute Überprüfung“ (bei manuellen Maßnahmen)

Sind die – seitens Google monierten – Verstöße gegen die Webmaster-Richtlinien (Ihrer Ansicht nach) behoben, ist abschließend noch der Antrag auf erneute Überprüfung über den Manual Actions Tab zu stellen. Bevor Sie dies jedoch tun, sei nochmals auf die Asynchronität der Daten hingewiesen: Haben Sie das Disavow-Links-Tool verwendet, so warten Sie mindestens 48 Stunden, bevor Sie den Antrag stellen. Genug Zeit also, die Geschehnisse vollumfänglich und nachvollziehbar zu dokumentieren. Die folgende Checkliste sorgt dafür, dass alle notwendigen Informationen präsentiert werden:

  • Listen Sie alle Verstöße gegen die GoogleRichtlinien auf und machen Sie insbesondere klar, dass diese Verstöße auch alle behoben sind.
  • Klären Sie die Verantwortlichkeiten: Wer hat das Dilemma verursacht? Agentur, Netzwerk, das InHouse-Team?
  • Erklären Sie detailliert, welche Maßnahmen zur Behebung erfolgt sind – und ebenfalls, dass sichergestellt ist, dass selbiges nicht nochmals passiert.
  • Stellen Sie die Kontaktversuche nebst Zeitpunkt und mögliche Antworten von Seitenbetreibern in einem GoogleDocs-Spreadsheet zur Verfügung. (Wichtig: Der Link muss zwingend über die Docs-Einstellungen auch freigegeben werden!)
  • Weisen Sie ebenfalls auf die Verwendung des DisavowTools hin, sofern dieses verwendet wurde (inkl. des veränderten/hinzugefügten Datenbestands).
  • Tut es Ihnen leid, was Sie getan haben? Natürlich tut es Ihnen leid! Und auch die Bitte um „Reconsideration“ nicht vergessen!

Je nach Sprache, Land sowie auch den aktuellen Feiertagen kann die Beantwortung des Reconsideration Requests von wenigen Tagen bis hin zu mehreren Wochen in Anspruch nehmen. In den meisten Fällen ist aber mit einer Antwort in einem Zeitraum von 6 bis 14 Tagen zu rechnen. Stellen Sie sich aber darauf ein, dass diese Antwort in den wenigsten Fällen sofort positiv ausfällt – es ist absolut nicht ungewöhnlich, erst nach mehreren Anläufen erfolgreich zu sein. Dies liegt primär darin begründet, dass nicht selten als Ablehnungsgrund entsprechende Linkbeispiele genannt werden, die entweder über die Analyse vorhergehender Beispiele nicht identifizierbar waren oder aber schlicht in keiner Linkdatenbank (einschließlich des Webmaster-Tools-Links- Exports) vorhanden waren. Wiederholen Sie in diesem Fall den gesamten Prozess unter Verwendung der aktuellsten Linkdaten und dann wird es in einem der nächsten Anläufe klappen.

Viel Erfolg und gute Nerven!