Fischers Meinung

Hey Babe – hast Du mich etwa gelinkt?

Mario Fischer
Mario Fischer

Mario Fischer ist Herausgeber und Chefredakteur der Website Boosting und seit der ersten Stunde des Webs von Optimierungsmöglichkeiten fasziniert. Er berät namhafte Unternehmen aller Größen und Branchen und lehrt im neu gegründeten Studiengang E-Commerce an der Hochschule für angewandte Wissenschaften in Würzburg.

Mehr von diesem AutorArtikel als PDF laden

Gelinkt fühlen sich wohl mittlerweile mehrere Unternehmen. Sie haben auf die Werbeversprechen von SEO-Agenturen vertraut und Linkpakete gekauft oder sich an Linknetzwerken beteiligt. Nachdem Google nun erneut zwei deutsche Linknetzwerke erkannt und abgestraft hat, spekuliert die Szene erneut, ob es ein Risiko wäre, mit künstlich gesetzten Links zu arbeiten. Frisst der Erfolg durch Links seine Kinder auf?

Ja, es ist wahr. Eingehende Links haben nach wie vor eine starke Bedeutung im Bewertungsalgorithmus von Google. Aber es ist ebenso wahr, dass der Absturz nach einer Erkennung für die Betroffenen oft unerwartet, schnell und heftig kommt. Als ebenso unangenehm oder gar überlebenskritisch für Shops kann sich die ungewisse Wartezeit danach herausstellen, nämlich ob und wann Google nach einer aufwendig durchgeführten Säuberungsaktion die Site wieder zum Ranking zulässt. Dass man selbst erwischt würde, glaubt eh niemand – bis dann der blaue Brief in den Webmastertools auftaucht oder eben das Ranking von einem auf den anderen Tag abschmiert.

Links setzen lassen ist die einfachste Lösung

Was sind die Gründe für ein Unternehmen, künstlichen Linkaufbau zu beauftragen? Zum einen muss man hier sicherlich im Kopf behalten, dass Unternehmen keine SEOs sind und auch in der Regel nicht über das Know-how verfügen, die Risiken vernünftig abzuschätzen. Wenn da eine Agentur daherkommt und besseres Ranking für einen bestimmten Betrag verspricht – was soll da schon passieren? Zum anderen beauftragen aber auch Webmaster, die durchaus über mehr bzw. wenigstens grundlegende Kenntnisse der Wirkungsmechanismen bei der Suchmaschinenoptimierung verfügen, solche Linkpakete. Natürlich gibt es mehr Hebel, die man ziehen, oder mehr Rädchen, an denen man drehen könnte. Aber die meisten davon rechnet man der sog. Onpage- oder Onsite-Optimierung zu – alles Dinge, die Änderungen an der Webpräsenz erfordern. Das kostet je nach Shop- und/oder Content-Management-System Zeit und Geld für Programmieraufwand. Veredelungsmaßnahmen beim Content macht erst recht Arbeit und die muss man am Ende vielleicht auch noch selbst erbringen.

Die bequemste Lösung ist natürlich, von oben Budget für externen Linkaufbau genehmigen zu lassen. Und dann herrscht in der Branche auch noch die feste Meinung, dass man beste Rankings bei sehr werthaltigen Suchbegriffen letztlich nur mit Linkaufbau erreichen könne. 

Der Grat ist schmal

Wann wurde ein Link gesetzt, weil die angelinkte Seite für den Besucher einen Mehrwert bietet, und wann, weil der Linkempfänger dafür bezahlt hat? Das lässt sich in der Regel von außen nicht zweifelsfrei erkennen. Die Unterschiede in den Auswirkungen sind aber gravierend. Im ersten Fall ist aus Sicht von Google alles in Ordnung, im zweiten Fall kann man sich damit Probleme einfangen. Nicht wegen einiger weniger zweifelhafter Links – aber schon, wenn man ein gewisses Muster erkennen kann. Und danach suchen nicht nur Algorithmen, sondern eben auch Menschen (die sog. Spamfighter). Die Maschinen finden gut trainiert Muster und schätzen bzw. leiten in der Zusammenschau ein mögliches De-Ranking ein. Mit recht viel Aufwand und expliziter Vermeidung solcher Muster kann man die Maschinen (noch) täuschen. Haben die Mitarbeiter des Spamteams jemanden auf dem Radar, ist es mit dem Versteckspiel meist schnell vorbei. Menschen erkennen Linkaufbau mit den richtigen Tools meist problemlos. Spätestens, wenn Mitbewerber den unliebsamen Konkurrenten, der sich nicht an die Regeln hält und im Ranking damit nach oben schummelt, bei Google melden, sehen sich die Spamfighter unter Umständen die Sache recht schnell näher an. Ganz sicher ist man also nie, und je besser der Linkaufbau funktioniert, desto auffälliger wird man.

Der Einzeldomain Freud ist der Netzwerke Leid

Sieht man sich Domains an, die ihre Backlinks aus Linknetzwerken beziehen, erkennt man oft schnell eines: Bei der Teilnahme an nur einem Netzwerk bleibt es in der Regel nicht. Einige Domains beschaffen sich Linkpower aus mehreren Quellen. Im Prinzip scheint das gar keine schlechte Idee zu sein, schließlich verwässert man damit bestimmte, maschinell ggf. erkennbare Muster. In der Realität passiert es aber, dass solche Crosseinkäufer einzelne Linknetzwerke untereinander „verbinden“ und somit auch solche Netze leichter auffindbar machen, die bisher noch nicht negativ aufgefallen sind. Im Prinzip muss sich Google also nur Domains vornehmen, die für bestimmte „schwierige“ Begriffe ganz oben ranken, und deren Linkprofil analysieren.

Wer als SEO regelmäßig selbst solche Untersuchungen macht, weiß, wie schnell man hier fündig wird. Dank der modernen und leistungsfähigen Tools liegen nicht selten gleich mehrere solcher Netzwerke auf dem Seziertisch und nach dem Zerlegen von Linkpyramiden oder -satellitensystemen sind die Player nach wenigen Stunden identifiziert. Nähme man sich jetzt jedes einzelne Linknetzwerk vor, könnte man via Excel sogar eine Strafentscheidungslogik auf Linkbasis basteln und damit die ärgsten Linkkäufer herausfiltern.

Noch einmal auf den Punkt gebracht: Einzelne Netzwerke erzeugen in der Regel bestimmte Verlinkungsmuster, die man über gut trainierte Algorithmen irgendwann identifizieren kann. Durch manuelle Analysen der Netzwerkdomains erkennt man dann oft recht schnell Domains, die in mehreren solcher Netze vertreten sind. Über diese „Brücken“ findet man dann weitere Netzwerke. Die Zahl ist praktisch nur durch die Zeit beschränkt, die man dafür investiert. Solche Überlegungen zeigen recht deutlich, dass man sich nie ganz sicher fühlen kann und darf, wenn man Links aus solchen Quellen besorgt. Dass noch nichts passiert ist bzw. alle teilnehmenden Domains gut ranken, ist kein hinreichender Grund zu glauben, dies bliebe ewig so. Wenn man schon als Außenstehender mit Tools für ein paar Hundert Euro solche Verstöße gegen die Richtlinien von Google aufdecken kann – wie schnell geht das wohl, wenn man als Googlemitarbeiter vollen Zugriff auf sämtliche internen Ressourcen, Tools und auch historischen Daten hat?

Verstecken spielen kann man wohl nur mit den Algorithmen, auch wenn diese immer besser werden. Aber vor der manuellen menschlichen Analyse gibt es wohl keinen Stein, der groß genug wäre, um mit nicht konform besorgten Links schnell darunter zu schlüpfen. Klar, das Netz ist groß, und wie viel Angst muss man wohl vor einer Handvoll solcher Spezialisten haben? Kommen die dem Wachstum des Webs überhaupt hinterher? Das könnte ein fataler Trugschluss sein. Denn mit jeder Aufdeckung eines Linknetzwerks analysiert man die Eigenarten und die (neuen) speziellen Muster. All diese Erkenntnisse fließen dann wiederum in die Optimierung der Algorithmen ein. Daher werden diese zwar langsam, aber spürbar immer besser. Es ist also wie so vieles nur eine Frage der Zeit.

Ein Link zusätzlich ist besser als kein Link zusätzlich

Warum es immer Sitebetreiber geben wird, die sich in mehreren Netzwerken tummeln, und solche, die immer noch mehr Links kaufen, ist klar und liegt in der Natur des Menschen. Irgendwie kann es nie genug sein. Warum auch? Platz 2 bei Suchbegriff X – es kann auch Platz 1 sein. Platz 1 bei 25 Suchbegriffen – es könnten auch 50 sein, die auf dieser Position ranken. Die Gleichung ist schließlich einfach: Je mehr Begriffe für mehr Suchworte besser platziert werden, desto mehr wird die Domain mit ihren Angeboten gefunden und erreicht potenzielle Kunden bzw. Auftraggeber. 

Auch wenn man selbst bescheiden bleibt, mit solchen Aufstrebern legt man sich mit einer Teilnahme an einem Netzwerk oder bei der Beschaffung via organisierte Linkverkäufer immer ins Linkbett.

Googlelefantengedächtnis?

Ein Link verbindet Domains schließlich und diese Verbindung macht in Summe im wahrsten Sinne des Wortes die „Verbindung“ aus. Mitgelinkt ist mitgehangen. Und da man davon ausgehen muss, dass Google alles speichert, was jemals interessant oder analysierbar wäre, bleiben solche Linkliebschaften wohl auch dann noch sichtbar, wenn man sich längst von einem Netzwerk zurückgezogen hat. Und auch wenn man sicher keine Strafe für die Vergangenheit bekommt, ist man möglicherweise häufiger Analyseobjekt, als einem lieb ist. Der Vergleich ist sicherlich etwas krumm, aber bei einer Serie von Einbrüchen nimmt sich die Polizei in der Regel zunächst vorbestrafte Einbrecher vor oder solche, die man schon mal unter Verdacht hatte. Was gestern passiert ist, kann man nicht mehr ändern – diesen Überlegungen muss man sich stellen, wenn man für die Zukunft den Ticketkauf für Linkkarussells plant. Google ist nach Aussagen ehemaliger Spamfighter nicht nachtragend, vergisst allerdings sicherlich auch nichts.

Zahlst du, kriegst du. Zahlst du nicht mehr, kriegst du trotzdem!

Einen weiteren Umstand darf man natürlich auch nicht vergessen. Nämlich, dass bei einem Ausstieg aus einem Linknetzwerk meist nicht alle Links wieder entfernt werden. Das Entfernen von Links macht einen nicht zu unterschätzenden Aufwand, wenn es nicht vollautomatisch passiert. Daher unterbleibt es nicht selten. Das ist schon ein seltsames Modell: Man bezahlt, Links werden gesetzt, und solange man weiter bezahlt (und wenn es nur die Teilnahmegebühr des Netzwerks ist), bleiben die Links und ihre Power erhalten. Zahlt man nicht mehr, müsste jemand Geld in die Hand nehmen, um die Links zu entfernen. Warum sollte man das tun? Um dem Nicht-mehr-Kunden zu schaden, weil er kein Geld mehr überweist? Das erscheint betriebswirtschaftlich unsinnig und wäre dann wohl eher eine emotionale Entscheidung. Paradoxerweise ist es also günstiger, Links weiter bestehen zu lassen, und so bleiben tatsächlich auch (zu) viele dieser Links noch im Netz. Anders ist es auch kaum zu erklären, dass Agenturen mittlerweile für den gezielten Abbau sorgen müssen, wenn bei verhängten Strafen die Linkweste zumindest wieder hellgrau werden muss.  

Wie hoch ist das Risiko?

Diese Frage kann man wohl nicht einmal bei Google für die nahe oder weiter entfernte Zukunft verlässlich beantworten. Als relativ sicher kann man davon ausgehen, dass die Algorithmen immer besser werden und nicht dümmer. Insofern müsste man – soll das Risiko gleich gehalten werden und nicht automatisch mitsteigen – die Methoden der Linksetzung ständig immer diffiziler variieren. Dem Vernehmen nach macht dies aber keiner der bekannteren Anbieter im wahrscheinlich notwendigen Umfang. Und es bleibt das Risiko der „Altlinks“ bestehen. Selbst eine ständige automatisierte Veränderung von Links bringt keine große Verbesserung, denn „automatisiert“ bedeutet in der Regel eben auch das Erzeugen eines (Veränderungs-)Musters. Und wenn Google mit den Abermillionen Rechenkernen eines wirklich gut kann, ist es das Erkennen von Mustern.

Natürlich muss das Manipulieren des Rankings über Linkkauf bzw. über ganze Linknetzwerke Google nicht nur einfach ärgern – es hebelt ständig an den Grundfesten der „optimalen“ Ergebnisse herum. Meist sind die hochmanipulierten Seiten inhaltlich eben nicht besonders nützlich oder aus der Sicht der Suchenden gar völlig unpassend. Wer braucht schon einen Treffer von Versteigerungsplattformen für einen Suchbegriff, um dann dort auf eine leere, manipulierte Suchseite zu gelangen, die ihrerseits dann wieder AdWords als vermeintliche Lösung anbietet? Google muss also gegensteuern.  

Was also tun?

Wie hoch das Risiko für einen Sitebetreiber ist, muss sicherlich individuell entschieden werden. Schließlich kann man in wenigen Wochen so viel Geld mit besten und werthaltigen Positionen verdienen, dass sich eine Rankingpause durch eine eingefangene Strafe und der Aufwand für ein einmaliges Durchwischen bei den Backlinks durchaus finanzieren lassen. Zudem gibt es viele Beispiele von Sites, die seit Jahren massiven Linkaufbau betreiben und noch immer bombig in den Ergebnislisten zu finden sind.

Geht man das Risiko ein, Rankings und damit Umsatz zu verlieren, indem man sich nicht nur von Linktoastern fernhält, sondern vielleicht noch sicherheitshalber die schlimmsten Sünden aus der Vergangenheit abbaut? Und was sagt am Ende der Chef oder Vorgesetzte dazu? Umsatz um 20 % gefallen – good Job, Herr Meier? Ist das persönliche Risiko für einen Angestellten niedriger, wenn er bei einem Absturz mit dem Finger auf eine Agentur zeigen kann oder wenn er selbst – Strategie hin oder her – dafür verantwortlich ist? Kann man einem Vorstand oder Eigentümer wirklich erklären, was da vor sich geht und wie die Wirkungszusammenhänge sich tatsächlich darstellen? Linkjuice, PageRank-Flow, Trustlinks, Musteranalysen, Linkvektoren, Disavow? Geht das? Bei einigen vielleicht, bei ebenso vielen wahrscheinlich nicht. 

Geht´s denn auch ohne Linknetzwerke?

Wer regelmäßig die Entwicklungen bei Google verfolgt, kann unschwer erkennen, dass man dort darauf hinarbeitet, weniger von Links und deren Bedeutungsvererbung bei der Berechnung von Rankingpositionen abhängig zu sein. Links lassen sich durch den mittlerweile entstandenen Markt relativ leicht beschaffen, daher sind Manipulationen längst kein Hexenwerk mehr. Irgendwann, sicher jedoch noch nicht morgen, werden andere Faktoren dominieren, die mehr die Realitäten im Web abbilden. Bis dahin wird und kann Google nicht darauf verzichten – entsprechende Tests wurden dem Vernehmen nach wohl schon gemacht.

Während einzelne Links, ob nun gekauft oder nicht, nach wie vor schwierig zu erkennen sind, darf man wahrscheinlich begründet davon ausgehen, dass Linkmuster bzw. ungewöhnliche Link-„Beziehungen“ durch Netzwerke immer leichter erkannt und dann auch bestraft werden. Man darf dabei nicht vergessen, dass Google glücklicherweise noch immer recht moderat gegen die betroffenen Sites vorgeht. In letzter Zeit findet man aber auch immer wieder Seiten bzw. Sites auf durchaus guten Rankingplätzen, die im Vergleich sehr viel weniger, „schwächere“ und auch keine besonders hochwertigen Backlinks aufweisen. Was diese Seiten dann als gemeinsame Klammer aufweisen, ist oft richtig guter und passender Content zur jeweiligen Suchphrase.

Bricht nun das Zeitalter an, in dem Google erkennt, mit welchen Seiten Suchende wirklich zufrieden sind? Sich bereits heute um die Optimierung des Contents zu kümmern, scheint daher keine schlechte Idee zu sein. Dabei geht es nicht darum, einfach möglichst viel Text auf eine Seite zu stellen, den man womöglich noch gegen wenig Geld extern produzieren lässt, oder, noch schlimmer, auf Shopseiten im unteren Teil nach einfachsten Methoden vermeintlich suchmaschinenoptimierten Text anzukleben. Es geht vielmehr darum zu erkennen, welche Informationen ein Besucher auf dieser einen Seite wirklich benötigt. Ganz nebenbei steigen dabei praktisch als Abfallprodukt auch die Conversions.

Wir dürfen gespannt sein, was die Zukunft bringt: Noch mehr Linkmanipulationen? Oder wird irgendwann doch mehr Geld in die Besucherzufriedenheit investiert? Davon würden wir wohl alle als Nutzer auch selbst profitieren: Endlich die Informationen finden, die wir wirklich suchen? Dazu müsste Google bei der Bewertung noch mehr Links links liegen lassen – die gelinkten wären dann – Wortspiel sei Dank – zwar immer noch die einzelnen Webseiten – aber eben auch die hoffnungsvoll bezahlenden Linkkäufer.