Links 2015: Recover – Protect – Build

Christoph Cemper
Christoph Cemper

Christoph C. Cemper ist seit 2003 auf das Thema Links spezialisiert. Als Gründer von LinkResearchTools (LRT) und Link Detox beschäftigt er sich im Tagesgeschäft mit jedem noch so kleinen Detail rund um Links und deren Bewertung. Privat ist ihm die Zukunft der Erde und unseres Klimas sehr wichtig, welche er auch durch die Charitykonferenz LRTcon unterstützt. Schon als Teenager hat er Computerspiele entwickelt und vermarktet, später kamen das BWL-/Marketingstudium und diverse Lehrverpflichtungen dazu.

Mehr von diesem AutorArtikel als PDF laden

Seit den ersten Pinguin-Updates im Jahr 2012 veränderte sich im Linkbuilding einiges. Genau genommen blieb kein Stein auf dem anderen und manch einer ist versucht, auf Basis verschiedener einzelner Beobachtungen den Links gar die Wirkung abzusprechen. Das Motto „Recover – Protect – Build“ gibt die Strategie für Linkrisikomanagement und Linkaufbau ziemlich gut wieder und soll in diesem Artikel näher beleuchtet werden.

Was 2012 im SEO geschah – die Google-Pinguin-Updates

Im April 2012 brach mit dem ersten Google-Pinguin-Update eine neue Ära für SEOs und Linkbuilder an. Vereinfacht gesagt veränderte Google das System plötzlich so, dass Links, die gegen die Google-Richtlinien verstießen, auch negative Wirkung zeigen konnten.

Während seit fast zehn Jahren die üblicherweise betriebenen Methoden zum massenhaften Linkaufbau z. B. über Presseportale, Linkverzeichnisse, Artikelportale, Forenprofile, Blog-Kauflinks schlimmstenfalls keine Wirkung gezeigt hatten, konnten diese nun Schaden in den organischen Rankings verursachen.

Die folgende Tabelle erklärt das Prinzip ganz einfach:

Zeitraum

Gute Links

Schlechte Links (Spam)

Bis April 2012

Positive Wirkung

Keine Wirkung*

Ab April 2012

Positive Wirkung

Negative Wirkung

Abb. 1: Die Wirkung schlechter (Spam-)Links vor und nach dem ersten Pinguin-Update in April 2012

*In Einzelfällen wurden massive Spam-Muster auch manuell abgestraft, gemeint ist also vereinfacht keine algorithmische Wirkung im Gegensatz zum Ausmaß nach der Einführung von Google Pinguin.

Unter dem Link einfach.st/lrt8 gibt es neun Typen solch schlechter Links – von Google explizit als Spam benannt – zum Download.

Recover – von der Google-Abstrafung erholen

Die Änderungen durch die Google-Pinguin-Updates trafen Hunderttausende Webmaster und SEOs mit einem Absturz in den Rankings. Was bis April 2012 geduldet, aber nicht abgewertet wurde, führte nun rückwirkend zu Abstrafungen für viele.

Abstrafungen durch Google wurden sehr oft auch „manuell“ verhängt, aber durch die Google-Pinguin-Updates wurde das Volumen an Abstrafungen massiv gesteigert. Wegen der algorithmischen Quelle wird auch oft von „Pinguin-Filtern“ statt „Pinguin-Abstrafungen“ gesprochen, aber diese Wortklauberei ändert nichts an dem Gefühl, wenn ein Webmaster über Nacht 99 % seiner Besucher verliert.

Mittels Software (wie Link Detox), die Linkrisikobewertungen automatisch unterstützt – oft müssen ja Zehntausende oder Hunderttausende Links im Linkaudit analysiert werden –, geht es im ersten Schritt also darum, Google wieder „zu gefallen“.

Die Markierung schädlicher Links als „bitte nicht zu zählen“ mit dem Google-Disavow-Tool oder deren Entfernung von Spamseiten ist die erste wesentliche Maßnahme, um eine Google-Abstrafung loszuwerden.

Eine weitere, nicht so weit verbreitete Erkenntnis ist, dass die entfernten oder Disavow-Links natürlich von Google auch noch mal gecrawlt werden müssen, bevor sich die Statusänderung manifestiert. Vereinfacht gesagt kann erst der Googlebot-Crawler die Entfernung bemerken. Nur weil jemand eine Datei in ein kleines Disavow-Tool von Google hochlädt, werden die Pläne der Google-Crawler noch nicht verändert.

Bei besonders schlechten oder abgestraften linkgebenden Seiten kann es durchaus einige Monate dauern, bis der Googlebot freiwillig vorbeikommt. Mit einem Tool namens Link Detox Boost reagierte LinkResearchTools im Dezember 2013 auf dieses Problem.

Viele Agenturen und Berater verdienten sich in den letzten Jahren bereits ihre Sporen als Bekämpfer von Google-Abstrafungen.

Nach der Erholung sind viele der schlechten Links weg, die vor der Entdeckung zu Rankings verhalfen. Manche anderen potenziell schädlichen Links schlummern aber vielleicht noch im Linkprofil und an starken neuen Links fehlt es oft gänzlich.

Entsprechend sind nach einer „Erholung“ von einer Penalty viele Webmaster enttäuscht, dass die alten Rankings nicht zurückkommen.

Protect – vor weiteren Google-Abstrafungen schützen

Wenn die Abstrafung aufgehoben wurde, bedeutet das aber nicht nur keinen automatischen Rankingsprung (es fehlt ja an guten Links), sondern vielmehr besteht auch weiterhin das Risiko einer erneuten Abstrafung durch:

  1. Schlechte Links, die aktuell zu wenig riskant für eine Abstrafung sind
  2. Neue schlechte Links (z. B. Scraper-Links von Domainstatistikportalen etc.)
  3. Neue schlechte Links (z. B. von Konkurrenten als negatives SEO gesetzt)

Schlechte Links sammeln sich im Auffangbecken „Backlinkprofil“ an, und auch wenn nach einer Abstrafung nur ein geringer Prozentsatz der Links als schädlich einzustufen ist, so können über die Zeit auch ungewollt neue schlechte Links hinzukommen.

Scraper-Links, also automatisch von diversen „Infoportalen“ gesetzte Links, sind auch als kritisch zu betrachten. Dem Autor ist ein Fall einer Abstrafung ausschließlich wegen Scraper-Links bekannt. Auch bestätigte ein Ex-Mitarbeiter des Google-Spam-Teams, dass auch die unerwünschten Scraper-Links zumindest als „disavow“ gekennzeichnet werden sollten.

Die Meinung, dass Google die automatischen Scraper-Links ja erkennen könnte und sollte und aus dem Linkgraphen entfernen müsste, basiert eher auf Wunschdenken als auf Realität. Fehlende Motivation und mangelnde Fähigkeit, die „schlechten Links“ selbst perfekt zu erkennen, demonstrierte Google ja längst mit dem Launch des Disavow-Tools im Oktober 2012.

Das Ziel für jeden Webmaster, SEO und Marketingverantwortlichen ist also immer, einen möglichst hohen Anteil an guten Links zu behalten.

Build – natürlich gute neue Links aufbauen

Der Aufbau von Links ist nach wie vor das Ziel sehr vieler Maßnahmen im Online-Marketing, aus dem einfachen Grund, weil es für die meisten bei Google ohne Links nicht geht.

Hierbei ergibt sich aber nicht nur die Frage,

  • woher die Links kommen,
  • wie man den Linkaufbau gut skaliert,
  • was die Links kosten (Zeit für die Überzeugung des Webmasters, natürlich nicht Geld).

Die Recherche guter Linkquellen kann über viele verschiedene SEO-Tools erfolgen. Die vom Autor veröffentlichten LinkResearchTools sind auf die Recherche von Linkquellen explizit spezialisiert. Unabhängig von der Software sollten aber für jede potenzielle Linkquelle verschiedene SEO-Kriterien beachtet werden wie zum Beispiel:

  • Themenrelevanz:Passt das Thema der Quellseite zur Zielseite?
  • Linknachbarschaft:Gibt es auf der Quellseite gar Links zu Viagra- und Casinoangeboten, so wird sich der eigene Link vermutlich nicht in „guter Nachbarschaft“ befinden)
  • Rankings: Hat die linkgebende Domain überhaupt Rankings? Wenn nicht, dann wird ein Link von dort auch wenig bringen.
  • Linkwachstum: Hat die linkgebende Domain ein halbwegs natürliches Linkwachstum (detailliert beschrieben in Ausgabe 18) oder ist sie mit 99 % LVT Teil eines Expired-Domain-Netzwerkes?
  • Weitere Kriterienwie diverse Linknetzwerkeffekte durch IP-Netze, Trackingcodes oder einfach gleiche Registranten sind außerdem oft ein Hinweis auf von Google unerwünschte künstliche Links.

Es ist auch das potenzielle Risiko der neuen Links zu beachten, denn seit fast drei Jahren können – die falschen - Links auch negative Folgen für das Ranking von Webseiten haben.

Bei der Beurteilung des potenziellen Linkrisikos neuer Links ist es wesentlich, dass diese nur im Zusammenhang mit bereits vorhandenen Links bewertet werden.

Ein Hyperlink ist immer die Verbindung von Seite A zu Seite B. Entsprechend könnte es sein, dass ein Link von Seite A für Seite B hoch riskant, für Seite C jedoch kaum riskant ist. Diese Erkenntnis ist auch relativ frisch in der SEO-Szene, da Links jahrelang nur nach dem auf der Toolbar angezeigten Google PageRank bewertet wurden. Das war auf jeden Fall seit etlichen Jahren eine gefährliche Vereinfachung.

Wozu das alles? Links und SEO sind doch tot!

Linkaufbau und SEO werden nicht leichter und jedes Jahr erneut für tot erklärt. Die Art Linkaufbau, den viele SEOs bis 2012 betrieben, ist auf jeden Fall tot. Aber nur weil Linkverzeichnisse, Pressemeldungsspam, Kauflinks in Zombieblogs und Forenspam nicht mehr funktionieren, bedeutet das nicht, dass der Linkaufbau oder gar SEO tot ist.

Google machte mit seinen Maßnahmen einer großen Gruppe an „SEO-Experten“ erfolgreich das Leben viel schwerer und ließ sie die Internetverstopfungen, die diese jahrelang produziert hatten, aufräumen. Doch mehr denn je gilt: Qualität vor Quantität! Es geht nicht darum, wer die meisten, sondern wer die besten Links hat.

Und das müssen gar nicht so viele sein, wie man in einer SEO-Konkurrenzanalyse schnell herausfinden kann – doch dazu mehr in der nächsten Ausgabe.