Suchmaschinenoptimierung Basics III

Mario Fischer
Mario Fischer

Mario Fischer ist Herausgeber und Chefredakteur der Website Boosting und seit der ersten Stunde des Webs von Optimierungsmöglichkeiten fasziniert. Er berät namhafte Unternehmen aller Größen und Branchen und lehrt im neu gegründeten Studiengang E-Commerce an der Hochschule für angewandte Wissenschaften in Würzburg.

Mehr von diesem AutorArtikel als PDF laden

In der letzten Ausgabe ging es in unserer Einsteigerserie um die sog. Onsite-Optimierung. Der dritte Teil zeigt, wie man sich mit gut gemeinten Optimierungsmaßnahmen ungewollt in den Spamfiltern der Suchmaschinen verfangen kann.

Die eigene Website ohne professionelle Hilfe im Ranking etwas nach vorn zu bringen, ist je nach Keyword mit Sicherheit nicht einfach, aber auch nicht unmöglich. Leider übertreiben ambitionierte Webmaster manchmal Dinge, die sie in Blogs oder Foren als Tipp lesen, und katapultieren sich damit ungewollt bei Suchmaschinen ins Aus. Es gibt eine Menge Dinge, mit denen man sich unbewusst eine solche Strafe (Penalty) einhandeln kann, und alle aufzuzählen würde sicherlich mittlerweile ein kleines Buch füllen. Die häufigsten Fallen, in die gerade Beginner tappen können, werden nachfolgend erläutert.

Linkaufbau? Na das ist ja einfach!

Leider nein. Denn die Betreiber von Suchmaschinen wissen natürlich, was wir mittlerweile (fast) alle wissen, dass Backlinks ein probates Mittel zur Verbesserung des Rankings sind. Also haben sie in den letzten Jahren viel Zeit und Grips investiert, um möglichst viele der Links maschinell erkennen zu können, die nur aus Gründen der Beeinflussung gesetzt wurden. Wenn man sich die einschlägigen Patente und vor allem die Doktorarbeiten der Akademiker genauer ansieht, die von Suchmaschinen eingestellt wurden, kann man zumindest begründet vermuten, dass man damit sogar schon sehr weit fortgeschritten ist. Wer mit den Möglichkeiten der höheren Mathematik nicht intensiv vertraut ist, unterschätzt wohl regelmäßig die tatsächliche Erkennungs-, Filter und Rechenpower, die den Softwareingenieuren und -programmierern hier mittlerweile zur Verfügung steht.

Das Ziel der Suchmaschinen ist, wertvolle Links (eigentlich sind es ja die relevanten Verweise auf eine andere Webseite, die einen Link für Menschen „wertvoll“ machen) von Linkschnodder (vulgo: Linkspam) zu unterscheiden. Wer sich jetzt ein paar Minuten zurücklehnt und auch ganz ohne Mathematik darüber nachdenkt, wird wohl schnell zu der vielleicht bitteren Erkenntnis kommen, dass es dann ja eigentlich für den Linkaufbau keinen schnellen und bequemen Weg geben dürfte.

Automatisierte Linknetzwerke

Im Web gibt es eine ganze Menge an Angeboten, die durch die Teilnahme an einem Linknetzwerk mit den begehrten Backlinks locken. Das Prinzip ist in der Regel immer ähnlich: Man meldet sich auf einer solchen Plattform an, gibt Themen oder Keywords an und erhält eine automatisch generierte HTML-Seite mit Texten und eingebauten Links zu anderen Webseiten. Diese dort eingefügten Links zeigen dann zu allen anderen Teilnehmern des Linknetzwerkes. Diese HTML-Seite muss man dann auf die eigene Site einfügen und von einer bestehenden Webseite aus anlinken, damit die Crawler der Suchmaschinen diese auch finden und indizieren. Die anderen Teilnehmer erhalten dann in regelmäßigen Abständen eine aktualisierte Version von deren „künstlicher“ HTML-Seite, die nun auch den eigenen Link plus einen passenden Text enthält. Wenn die anderen dann die jeweilige Seite auf deren Webauftritt eingestellt haben, zeigen die Links von dort zu mir. Das Ganze ist nichts anderes als ein organisierter Linktausch – nur eben mehr oder weniger automatisiert. Geht man jetzt z. B. von 50 Teilnehmern aus, gibt es im Index einer Suchmaschine 50 fast identische Seiten, die 49 Links zu anderen Domains enthalten und sich jeweils nur durch einen Link plus zugehörigem Text unterscheiden – nämlich durch den, der auf einen selber zeigen würde. Einen entsprechenden Erkennungsfilter programmieren könnten wohl Informatikstudent/-innen schon im ersten Semester. Für die Suchmaschinen ist eher die Herausforderung, diese eindeutigen Muster aus den Milliarden Webseiten zuverlässig herauszufischen. Um ihnen die Arbeit zu erschweren, mischen die anspruchsvolleren Netzwerke unterschiedlichen Text auf die verteilten Seiten. Was jedoch als erkennbares Muster bleibt, sind 99 Links auf immer die gleichen Domains. Je nachdem, wie gut die Linknetzwerkbetreiber vorgehen und die Text und Links an die Teilnehmer verteilen, sind diese Muster leichter oder eben schwerer zu erkennen. Die Grundgefahr, dass Suchmaschinen – die ja technisch niemals stehen bleiben – solche Muster trotzdem irgendwann durchschauen, bleibt also wie ein Damoklesschwert über den Teilnehmern hängen. Für eine langfristig tragfähige Online-Strategie ist das wohl für die meisten Unternehmen wenig akzeptabel. Eine (De-Ranking)Strafe, die von einer Suchmaschine deswegen verhängt wird, ist nämlich gar nicht so leicht wieder loszuwerden. Insbesondere Google warnt eindringlich in eigenen Foren und in der Webmasterzentrale davor: „Beispiele für Linktauschprogramme: Übermäßiger Linkaustausch und übermäßige gegenseitige Vernetzung (‚Ich verknüpfe zu dir und du verknüpfst zu mir‘)“ (Quelle: einfach.st/linknetz2).

„Nehmen Sie nicht an Linktauschprogrammen teil, die dazu dienen, Ihr Ranking oder Ihren PageRank zu verbessern. Meiden Sie insbesondere Links zu Webspammern oder ‚schlechter Nachbarschaft‘ im Web, da Ihr eigenes Ranking durch solche Links negativ beeinflusst werden kann“ (http://einfach.st/linknetz).

Automatisierte Einträge in Webkataloge

Einen noch schnelleren und einfacheren Erfolg versprechen einige Online-Angebote oder auch installierbare Software, die eine Domain automatisch in Hunderte von Webkatalogen eintragen. Und nicht selten bieten auch Agenturen dies als günstiges „SEO-Paket“ für wenige Euro an. Eine neue Domain als Erstes massenweise in – oft dubiose – Webkataloge eintragen zu lassen, ist jedoch nach Meinung der meisten Experten der sicherste Weg, für diese Domain schon beim Start einen Schaden zu verursachen. Selbstverständlich haben auch Suchmaschinen Listen solcher Massenkataloge und können daher recht einfach und ebenfalls vollautomatisiert prüfen, wer sich auf diesem einfachen Weg mit Backlinks versorgen lassen möchte. Die meisten dieser Kataloge dienen auch nur einem einzigen Zweck: Backlinks zu generieren. Teilweise wird das ja sogar ganz offen bereits auf den Startseiten der Kataloge kommuniziert. Google gibt die Empfehlung, sich (themenrelevant und manuell) nur in die Webkataloge einzutragen, von denen man glaubt, dass sie auch von suchenden Menschen als Hilfe empfunden werden, und die man auch tatsächlich selber benutzen würde. Von allen Webkatalogen, die irgendwie gefühlsmäßig nach „ich existiere nur, damit Links aufgebaut werden können“ aussehen, sollte man also tunlichst die Finger lassen. Und davon, dass automatisierte Eintragssoftware diese Unterscheidung in der Regel nicht so sorgfältig trifft, darf mit hoher Wahrscheinlichkeit ausgegangen werden.     

Du siehst mich nicht!

Eigentlich sollte klar sein, dass nur das den Weg in einen Suchmaschinenindex finden sollte, was auch für den Besucher auf einer Webseite sichtbar ist. Gerade Neulinge kommen aber immer wieder auf die Idee, doch keywordrelevanten Text einfach in der gleichen Farbe zu schreiben, die auch der Hintergrund hat. Der Suchmaschinenrobot findet diesen Text dann (der ja im Quelltext der Seite zu finden ist), ein Besucher sieht ihn aber nicht und damit stört er sich dann eben auch nicht an den oft zusammenhanglosen Wortlisten. Das kann funktionieren – muss aber nicht. Farben werden in HTML mit sog. Hex-Werten codiert. Der Wert #FFFFFF steht beispielsweise für Weiß. Ist nun in der Programmierung der Hintergrund mit der Farbe #FFFFFF angegeben und irgendwo eine Textpassage mit dem gleichen (oder wenig abweichenden) Farbwert hinterlegt, dann kann eine halbwegs intelligent programmierte Maschine erkennen, dass hier keine vom Menschen erkennbare Farbdifferenz verwendet wurde. Im besten Fall ignoriert die Suchmaschine diesen Text (weil ein Seitenbesucher sie ja auch nicht sieht), im schlechtesten Fall bekommt die Webseite oder gar die ganze Domain eine Strafe verhängt.

Radiergummis, Radiergummis, kauf Radiergummis hier!

Über die sog. Keyword-Dichte wurde ja schon im ersten Teil dieser Serie berichtet (Ausgabe 7-8, Suchmaschinenoptimerung Basics I). Dort wurde auch erwähnt, dass man sich vor dem Keyword-Stuffing (Überfrachten der Seite mit immer demselben Keyword) hüten sollte. Normalerweise wird für eine zu hohe Keyword-Dichte (3 bis 4 Prozent sind ein normaler Wert) eine einzelne Seite „nur“ für dieses Keyword im Ranking zurückgestuft. Wird das Keyword-Stuffing jedoch auf vielen Seiten einer Domain übertrieben, könnte durchaus die gesamte Domain eine Strafe bekommen. Das Problem kann hier darin bestehen, dass durch den Einsatz von Vorlagen (Templates) von Shop- oder Content-Management-Systemen ungewollt solche überhöhten Wortnennungen auftreten, derer man sich gar nicht bewusst ist, weil sie in der Navigation, in Fußtexten oder anderen häufig verwendeten Elementen stehen. Eine maschinelle Vorsorgeuntersuchung scheint daher in jedem Fall angeraten. Dazu findet man eine Menge kostenloser Tools im Web, eines davon z. B. unter einfach.st/kwdichte. 

Lesen Sie in der nächsten Ausgabe von Website Boosting im Teil 4, wie die Robots (auch Crawler) der Suchmaschinen gezielt gesteuert werden können - und auch, wie Sie Inhalte von Google & Co. fernhalten oder bei Bedarf auch wieder schnell aus demSuchindex entfernen können. Dies kann vor allem bei Rechtssteitigkeiten oder Urheberrechtsverletzungen vor unnötigen (Folge-)Kosten schützen.