Content First! Wikipedia als Vorlage für eine gelungene Symbiose aus Inhalt und SEO-Handwerk

Jan Hendrik Merlin Jacob
Jan Hendrik Merlin Jacob

Jan Hendrik Merlin Jacob ist Teil des Tandler.Doerje.Partner-Teams. In der Vergangenheit war Jacob bei der Gründung verschiedener Online-Startups beteiligt und widmet sich seit vier Jahren dem Bereich Technical SEO mit Fokus auf Site-Architekture und OnPage-Optimierung. Aktuell arbeitet er an der Weiterentwicklung des neuen SEO-OnPage-Analyse-Tools OnPage.org.

Mehr von diesem AutorArtikel als PDF laden
Andreas Bruckschlögl
Andreas Bruckschlögl

Andreas Bruckschlögl ist Diplom-Fachwirt Dialog-/Online-Marketing (BAW) und begann seine Karriere im Online-Bereich bereits im Alter von 13 Jahren. 2008 trat er in das Team von Marcus Tandler ein. Nach dem Zusammenschluss von Tandler und Niels Dörje zu Tandler.Doerje.Partner stieg er dort zügig zum Head of Inbound Marketing auf und koordiniert heute in dieser Funktion ein Team aus festen und freiberuflichen Mitarbeitern.

Mehr von diesem AutorArtikel als PDF laden

Wer die Suchergebnisse seiner wichtigsten Keywords anschaut, wird oft auf einen bekannten Namen treffen: Wikipedia. Jeder kennt sie, jeder mag sie und jeder SEO fürchtet sie. Die SEO-Statistiken der Enzyklopädie sind gewaltig und dementsprechend schwer ist es, an ihr vorbeizuziehen. Doch abseits von der Popularität der Marke Wikipedia hatt das Programmiererteam um den Wiki-Gründer Jimmy Wales jede Menge richtig gemacht. Merlin Jacob und Andi Bruckschlögl sezieren einige Erkenntnisse heraus, von denen Hersteller von Content-Management-Systemen, Texter und auch Suchmaschinen-Optimierer durchaus noch etwas lernen können.

Aller Anfang war qualitativer Content

Dass Content King ist, hat sich mittlerweile rumgesprochen. Die spitzen SEO-Ohren bluten bei Äußerungen von Googles Rankinghüter Matt Cutts zu diesem Thema. Hören Menschen aus der Offline-Welt, dass in dieser Szene über die Wichtigkeit der Textqualität für die Website diskutiert wird, kann man sich verständnislosen Kopfschüttelns gewiss sein. „Selbstverständlich ist die Qualität des Inhaltes das einzige Kriterium für die Qualität einer Website“, hört man dann. Lange Rede, kurzer Sinn: Die Allgemeinheit, Google und Matt Cutts sehen es so – also sollte man sich vielleicht doch besser dran halten: Solides, nachhaltiges SEO sollte auf besten Inhalten aufbauen. Im Falle von Wikipedia kann man sehen, wie aus guten Texten reichweitenstarke SERP-Dominierer (SERP: Search Engine Result Page) werden.

Lebendiger Content als Wettbewerbsvorteil

Google erkennt zuverlässig Textänderungen und belohnt diese, nicht zuletzt wegen Wikipedia selbst, mit einem Ranking-Bonus. Werden Artikel ständig auf den aktuellen Stand gebracht, spricht dies für die verantwortungsvolle Pflege einer Website. Bei größeren Änderungen zu aktuellen Entwicklungen des Themas kann man außerdem von einem sog. Freshness-Bonus profitieren (vgl: einfach.st/jbfresh). In diesem Punkt ist Wikipedia durch seinen Crowdsourcing-Ansatz, bei dem jeder mitarbeiten kann, nahezu unschlagbar – aber man kann es auch als Chance sehen. Schließlich zeigt Wikipedia an, welche Personen einen Artikel aktualisieren. Man kann erkennen, wenn ein Name immer wiederkehrt und anscheinend besonders mit einem Thema vertraut und verbunden ist. Man könnte z. B. versuchen, solche Personen für den eigenen Redakteurs-Pool zu gewinnen. Damit wäre es durchaus möglich, aus einem 1:0 für Wikipedia ein 1:2 für die eigene Site werden zu lassen, denn auf einmal brilliert sie durch Aktualität und Detailgrad, während der Wikipedia-Artikel ggf. erst verspätet aktualisiert wird.

Form follows Function: Wikipedias Design

Das Wikipedia-Design ist extrem minimalistisch gehalten. Es werden keine neusten Artikel oder Ähnliches beworben, stattdessen liegt der Fokus auf wenigen, aber dafür funktionalen Werkzeugen. Die ersten drei Links der Sidebar dienen der explorativen Erkundung der Website. Das freut die Besucher und motiviert sie, weitere Artikel zu lesen. Und es freut auch die Robots der Suchmaschinen, die solche Seitenverzeichnisse ganz besonders lieben. Unter der Sidebar folgen Links, die das Wikipedia-Prinzip erklären, und Verlinkungen auf die internationalen Versionen (welche übrigens korrekt mit dem hreflang-Tag ausgezeichnet sind). Alles in allem linkt die Sidebar also durchweg auf Seiten, die Besucher und Suchmaschinen zu sog. Content-Hubs führen, und deren Übersetzungen, welche auf diese Art sauber von Google erkannt werden können.

Die sonstigen Navigationselemente sind sehr dezent gehalten:

  • Eine kleine Header-Navigation, welche die Operationen des Content-Management-Systems beinhaltet.
  • Die erste Footer-Navigation, welche den Besucher ermuntert, mehr zu dem jeweiligen Themengebiet zu lesen und den Crawler erneut zu weiteren Content-Hubs führt.
  • Die zweite Footer-Navigation, welche primär Sackgassenseiten verlinkt, also z. B. das Impressum.

Somit ist das Design gerade im sichtbaren Bereich (above the fold) sehr schlank gehalten. Die Sidebars sind optisch so dezent, dass, sofern kein Artikelbild vorhanden ist, der Blick des Benutzers automatisch auf die Headline gezogen wird. Es gibt außer dem Wikipedia-Logo keine optischen Störelemente, die das Auge und damit die Aufmerksamkeit eventuell ablenken könnten (wie dies z. B. Beispiel menschliche Gesichter in Headergrafiken tun). Damit hält das Design die Erkenntnisse des Dialog-Marketings ein.

Unter der Haube: Die Qualität des HTML-Codes

Hier wird es spannend! Die Wikipedia-Entwickler haben bei ihrem HTML/CSS-Konstrukt einen kleinen Trick angewandt: Wie bei der allgemeinen strategischen Ausrichtung steht auch im Quellcode der Inhalt (genauer: der Haupttext) an oberster Stelle. Header, Sidebar und beide Footer-Navigationen sind im Quellcode allesamt unterhalb des Textes positioniert und werden dann per CSS für den Benutzer optisch richtig dar- bzw. umgestellt.

Dieser Trick birgt einige Vorteile:

  • SEO: Interne Links im Artikel sind innerhalb des Codes vor Navigationslinks positioniert und bekommen somit eine höhere Gewichtung bei der Verteilung der Linkpower (Linkjuice).
  • Usability: Selbst wenn Javascript oder CSS deaktiviert sind, ist der Inhalt immer noch sauber konsumierbar (vgl. Screenshot).
  • Barrierefreiheit: Auch alternative Geräte und Plattformen für die Darstellung von Webseiten (zum Beispiel via Blindenschrift) geben dem Benutzer ein optimales Ergebnis ( vgl.http://einfach.st/wpfrei ).

Abseits von der Positionierung der Code-Blöcke wurde auch auf die Größe des Source-Codes geachtet. Dank des schlanken Designs reichen sehr wenige HTML-Tags aus, um die Seite darzustellen; das führt zu einem günstigen Verhältnis von Inhalten und Programmiercode (Content/Code Ratio). Ist der Quellcode einer Website möglichst schlank, mögen die Suchmaschinen dies bekannterweise gern, denn mit Layout kann eine Maschine letztlich wenig anfangen. Was sie interessiert, ist der Content, und je weniger aus ihrer Sicht nutzloses Beiwerk sie mitgeliefert bekommt, desto besser, denn dies erhöht letztlich auch die Geschwindigkeit und senkt damit jedermanns Kosten.

Zu guter Letzt sei noch angemerkt, dass die Anzahl der Javascript- und CSS-Dateien ebenfalls  gering gehalten wurde, was ein schnelleres Laden und das Rendering (Aufbau der Seite) begünstigst. Wie auch schon bei der gelungenen Führung der Aufmerksamkeit des Besuchers, beeinflusst das schnelle Laden der Seite die Nutzererfahrung positiv, was diesen im Zweifelsfall länger auf der Seite hält, die Bounce-Rate (Rücksprung zur Ergebnisliste der Suchmaschine) reduziert und zu weiteren Klicks anregt.

Süßigkeiten für die Robots: Richtige OnPage-Optimierung hilft der Suchmaschine, die Website besser zu „verstehen“

Nach der Erklärung der allgemeinen HTML-Umsetzung bei Wikipedia geht es nun in die Tiefe: die OnPage-Optimierung. Hier bieten sich als Einstieg die Meta-Tags an.

Das Title-Tag

Hier werden keine Experimente gemacht. Gemäß dem Keyword-Fokus wird einfach das Artikel-Thema als Title gesetzt, dahinter noch der Name Wikipedia und das war‘s. Hier wird nicht auf Click-Through-Rate oder Ähnliches geachtet, sondern auf den bekannten Markennamen gesetzt. Im Falle von Wikipedia ist das mehr als verständlich.

Meta-Tag: Description

Wikipedia verzichtet komplett auf die Verwendung der Meta-Description. Eigentlich ein grober SEO-Fauxpas, aber auch hier profitiert Wikipedia von seinem schlanken und aufgeräumten Design, denn es gibt keinerlei Teaser-Texte für andere Inhalte, sondern einzig und allein den Text zum jeweiligen Thema. Somit kann Google eigentlich gar nichts falsch machen, wenn die Texte der Anzeige für den Suchergebniseintrag berechnet werden. Hier wird das Snippet direkt aus dem sichtbaren Seitentext geholt, was gegebenenfalls sogar auf die Suchanfrage des Benutzers angepasst wird – so gesehen eine automatische Klickoptimierung

Meta-Tag: Robots

Auch hier lässt Wikipedia den Suchmaschinen maximale Freiheiten. Allerdings werden einige Spezialseiten (zum Beispiel interne Tools) via robots.txt geblockt. Vereinzelte Spezialseiten sind allerdings als „noindex, nofollow“ deklariert (wie zum Beispiel „Neue Seiten“), wovon eigentlich im Normalfall abzuraten ist, da damit unnötig Linkpower verschenkt wird. Besonders stark fällt dies bei der Seite „Alle Seiten“ (in der Sidebar „Von A bis Z“) ins Gewicht. Hier scheint Wikipedia einen kapitalen Fehler begangen zu haben. Die ersten Navigationsebenen des „Alle Seiten“-Indexes sind auf „noindex, nofollow“ gesetzt! Später werden die Artikelübersichtsseiten dann allerdings wieder indexierbar (kein Robots-Tag gesetzt). In diesem Falle verbietet Wikipedia also, eine wirklich essenzielle und extrem starke Seite zu indizieren und vor allem ihren Links zu folgen! Dies dürfte die untergeordneten bzw. nachfolgenden Seiten um einiges schwächer machen, als es sein müsste.

Meta-Tag: Canonical

Standardmäßig wird bei Wikipedia das Canonical-Tag nicht verwendet, sondern nur dann eingesetzt, wenn die URL falsch geschrieben wurde (zum Beispiel bei Fehlern in der Groß-/Kleinschreibung).

Semantisches Mark-up

In diesem Bereich ist das CMS von Wikipedia besonders stark. Wer selbst einmal aktiv an einem Wiki mitgearbeitet hat, weiß, wie simpel der Texteditor funktioniert. Der resultierende HTML-Code hingegen ist alles andere als simpel: Das Seitenthema wird als H1-Überschrift gesetzt, während Zwischenüberschriften korrekt in ihrer Hierarchie als H2-H4 deklariert werden.

Obenauf wird idealerweise noch automatisch ein Inhaltsverzeichnis am Anfang des Artikels mit den jeweiligen Anchor-Links als Sprungmarken eingefügt, wodurch Google das Generieren der sog. Site-Links besonders einfach gemacht wird.

Durch das akademische Layout der Quellenangaben werden alle Links auf externe Seiten an das Ende des Textes verbannt, während die internen Links direkt im Text enthalten sind.

Eine weitere Besonderheit des Wikipedia-CMS: Es motiviert, interne Links auf Seiten bzw. Beiträge zu platzieren, die noch gar nicht existieren. Bei anderen CMS würde dies zu einem 404-Fehler führen oder gar nicht ermöglicht werden. Wikipedia antwortet hier automatisiert mit einer „Noindex, nofollow“-Seite, welche den Besucher auffordert, den Inhalt zu erstellen. Parallel wird auf der Übersichtsseite „Gewünschte Seiten“ ein Eintrag erstellt, wo andere Wikipedia-Benutzer aufgefordert werden, eben diesen Inhalt zu schreiben.

Duplicate Content

Wikipedia verwendet keine Tags, um die Artikel zu kategorisieren, stattdessen werden Content-Hubs mit Inhalten erstellt, die auf einer realen Beziehung basieren. Die Content-Struktur ist also sehr transparent und logisch abgetrennt. Somit kommt es nicht zu versehentlichen Überschneidungen verschiedener Kategorieseiten, wie es gerade bei Tag-Systemen oft der Fall ist. Wenn sich zwei Seiten zu stark ähneln sollten, werden sie von Redakteuren zusammengeführt oder in eine Weiterleitung umgewandelt. Dazu helfen die internen Tools, Seiten aufzuspüren, die inhaltlich noch etwas schwach sind und mehr Text gebrauchen könnten. So wird die Anzahl der Thin-Content-Seiten, also Seiten mit nur wenig Inhalt, die sich potenziell eher überschneiden könnten, im Auge behalten und durch die Community reduziert.

Eine spezielle Duplicate-Content-Analyse (siehe Abbildung 9) zeigt, wie einzigartig (unique) die Inhalte und die Seitenarchitektur von Wikipedia wirklich sind. Auch wenn hierfür nur ein kleiner Ausschnitt von Wikipedia analysiert wurde (~ 16.000 Seiten), kristallisiert sich ein klarer Trend heraus: Während eine erhebliche Mehrheit anderer Websites ihren Schwerpunkt im gelben Bereich (70 %-40 % Text uniqueness) aufweist, schafft es Wikipedia, sich im deutlich grünen Bereich (70 %+) zu positionieren. Dieser spezielle Duplicate-Content-Test basiert auf einer N-Gram-Indexierung, welche auch sog. gespinnte Texte (automatisch generierte Textvarianten) oder kopierte Textpassagen erkennt und darauf basierend die Text-Einzigartigkeit innerhalb eines Website-Projekts berechnet. Allerdings muss man bei einem Projekt dieser Größenordnung anmerken, dass hier eben nur ein Teilausschnitt betrachtet werden kann. Dieser genügt aber in der Regel, um die SEO- bzw. Content-Erstellungsprobleme eines CMS zu prüfen.

Fehlerfreiheit der internen Adresstruktur

Bei den knapp 16.000 untersuchten Seiten wurden lediglich vier 301-Redirects und vier 302-Redirects gefunden; dabei handelte es sich primär um den Redirect der Root-Domain (was natürlich suboptimal ist) sowie ein paar Short-URLs. 404-Fehler gab es ebenfalls so gut wie keine, was wahrscheinlich der intelligenten Handhabung fehlender Inhalte (siehe „Semantisches Mark-up“) zu verdanken ist. Unter dem Strich ist das aber ein wirklich sehr guter Wert, der für die Ordnung auf der Seite spricht. Und Google mag ordentliche Webseiten.

Sitemap.xml

Trotz der enormen Größe von Wikipedia wird keine Sitemap.xml verwendet, um Google eine Liste aller Inhalte zu bieten. Hier vertraut man offenbar zu Recht der starken internen Verlinkung und dass dies die Robots sauber durch die gesamte Site führt.

Interne Verlinkung

Durch die aktive Community, die sehr einfach neue Kreuzverweise zwischen Artikeln erstellen kann, entsteht eine extrem gute interne Verlinkung mit relevanten Keywords als Textanker auf diesen Links. Diese Qualität bringt Wikipedia in eine Position, in der nicht die Qualität der Inhalte bewertet werden muss, um diese dann besonders aufzulisten (zum Beispiel sitemap.xml). Nein, viel mehr kann sich Wikipedia genau wie Google auf das sog. Random-Surfer-Modell verlassen, denn gute und wichtige Artikel werden viele interne Verlinkungen anziehen. Um dies zu unterstützen, bietet Wikipedia sogar ein separates Werkzeug (vgl. z. B. „Seiten, die auf ‚Schildkröte‘ verlinken“: einfach.st/wpfrei). Durch eine vermehrte Anzahl an internen Links wird ein Robot die betroffene Seiten automatisch höher gewichten und somit wahrscheinlicher in einem Durchgang erfassen. Damit findet dann auch ein automatisches Aussieben schlechter bzw. schlechterer Inhalte statt.

Abseits der Bedeutung für das Crawling sind die internen Links natürlich wertvolle Treiber zur Weitergabe von Linkpower. Wie bereits erwähnt, werden externe Links meistens automatisch am Ende des Inhaltes angezeigt, dazu kommt die große Masse an internen Links. Im Schnitt zeigen 77 % der Hyperlinks auf interne Seiten. Dies bedeutet, dass die Linkpower, die von externen Websites auf einen Artikel eingeht, sehr gut gebündelt und sauber auf der ganzen Plattform von Wikipedia weiterverteilt wird. Um sicherzustellen, dass der wertvolle externe „Linksaft“ auch wirklich passend verteilt wird, stellt das Wikipedia-CMS erneut ein wichtiges Werkzeug zur Verfügung: die Übersicht „Sackgassenartikel“. Sie zeigt Artikel, welche keine internen Links beinhalten, und ruft die Community auf, neue Kreuzverweise zu erstellen. Umgekehrt gibt es zudem eine Übersicht über alle „verwaisten Seiten“, also Seiten, die noch keine internen Links erhalten haben. Der Vollständigkeit halber sei noch erwähnt, dass Wikipedia innerhalb des Contentbereichs keine internen „Nofollow“-Links verwendet.

Erstklassiger, werbefreier Content als Herzstück für organisches Linkbuilding?

Der Name Wikipedia ist ein Kofferwort, das sich aus „Wiki“ (hawaiisch für „schnell“) und „Encyclopedia“ (dem englischen Wort für Enzyklopädie) zusammensetzt. [...] Die Einträge („Artikel“ u. a.) der Wikipedia werden von individuellen Autoren – seltener von kollektiv arbeitenden Autoren – unentgeltlich konzipiert, geschrieben und nach der Veröffentlichung gemeinschaftlich korrigiert, erweitert und aktualisiert. Das Ziel von Wikipedia ist es, eine frei lizenzierte und qualitativ hochstehende Enzyklopädie zu schaffen und zu verbreiten. (Quelle: http://de.wikipedia.org/wiki/Wikipedia)

Das Portal hat sich also unter anderem das Ziel gesetzt, eine „qualitativ hochstehende Enzyklopädie“ zu etablieren, die jederzeit „korrigiert, erweitert und aktualisiert“ werden kann. Was man hier also nicht findet, sind Artikel von Textbörsen für 1 Cent/Wort mit einer Länge von 200 Wörtern, wie sie viele SEOs noch immer einkaufen und online stellen. Noch immer wird viel zu häufig am Content gespart, dem „Herz“ für organisches Linkbuilding. Gut ausgearbeitete Ratgeberartikel, selbst erhobene Studien oder nützliche Umfragen kosten zwar deutlich über 100 Euro, werden aber am Ende spürbar viel häufiger verlinkt. Es lohnt sich also!

Die Artikel auf Wikipedia werden zudem ständig erweitert. Auch das wird leider häufig von Suchmaschinenoptimierern vernachlässigt oder gar vergessen. Sobald es neue Erkenntnisse über ein Thema gibt, sollte der Artikel angepasst und um diese Informationen erweitert werden. Der Leser muss also immer die besten und aktuellsten Informationen erhalten – die Leitlinie muss sein: einfach der bestmögliche Inhalt für das bestmögliche Ergebnis für die jeweilige Suchanfrage! Veraltete Informationen wirken unprofessionell und sind für den Linkaufbau ebenso nachteilig wie minderwertiger Content!

Verlinkungsfördernd ist sicher auch eher schlichtes und werbefreies Design. Blogger und Redakteure verweisen einfach für gewöhnlich nicht so gerne auf Seiten, die unseriös wirken oder mit Werbebannern zugekleistert sind. Schließlich wollen sie ihren Besuchern keine schlechte Webseite empfehlen, die dann wiederum ein schlechtes Licht auf ihren ursprünglichen Artikel werfen würde. Dies ist auch der Grund, weswegen E-Commerce-Plattformen viel seltener verlinkt werden. Der User denkt oftmals, dass der Redakteur bewusst Werbung platziert hätte. Lösen kann man dies, indem beispielsweise neben dem Online-Shop eine Ratgebersektion aufgebaut wird und dort die Produkte gar nicht oder nur sehr dezent beworben werden. Je professioneller eine Seite wirkt und je weniger sie erkennbar auf Werbung ausgelegt ist, desto einfacher ist der Aufbau hochwertiger Backlinks.

Mit den genannten Punkten schafft Wikipedia eine einwandfreie Grundlage, um häufig verlinkt zu werden. Wenn man sich das Backlinkprofil von Wikipedia mit SEO-Analysetools (beispielsweise Sistrix, Searchmetrics oder den LinkResearchTools) ansieht, fällt als Erstes die immense Summe von über 300 Millionen Links(!) und über fünf Millionen unterschiedlicher Hostnamen auf, die zu Wikipedia verweisen. Somit besitzt das Portal eines der größten Backlinkprofile weltweit. Da derart starke Portale fast ausschließlich organisch gewachsen sind, macht es Sinn, das Profil von Wikipedia im Folgenden etwas genauer zu analysieren. Dadurch können wertvolle und hilfreiche Erkenntnisse für den Linkaufbau der eigenen Site gewonnen werden.

Im Folgenden wird beispielhaft das Backlinkprofil einer der am häufigsten verlinkten Seiten analysiert (http://de.wikipedia.org/wiki/GNU_General_Public_License). Eine Auswertung der gesamten deutschen Subdomain von Wikipedia ist aus Gründen des technischen Aufwands leider nicht so ohne Weiteres möglich. Die immense Anzahl an Backlinks können die meisten Tools aktuell nur fehlerbehaftet verarbeiten, sodass daraus keine wirklich validen Aussagen abgeleitet werden können.

Die drei größten Auffälligkeiten

Vergleicht man das Profil mit Seiten, die unnatürlichen Linkaufbau betreiben, fallen drei Unterschiede besonders auf:

1. Natürlicher Mix aus Follow- und Nofollow-Links

Beim Verbreiten von Artikeln achten viele SEOs oft sehr stark darauf, ausschließlich Follow-Verlinkungen zu erhalten. Da bei einer Verlinkung mit dem „Nofollow“-Attribut kein sogenannter „Linkjuice“, also Linkpower vererbt wird, kann die Generierung solcher Linktypen als irrelevant erachtet werden. Für die analysierte Beispielseite sind 831 Links mit dem „Follow“-Attribut und 118 Links mit dem „Nofollow“-Attribut versehen. Nofollow-Links vererben zwar keinen Linkjuice, sie sind allerdings ein sehr aussagekräftiges Indiz für ein natürlich gewachsenes Backlinkprofil! Werden also lediglich „Follow“-Links eingesammelt, kann dies für Google ein klares Indiz sein, dass das Linkwachstum mitunter nicht von selbst erfolgt sein könnte, sondern dass künstlich bzw. manuell nachgeholfen wurde. Aus diesem Grund ist zu empfehlen, bei der Verbreitung von Artikeln am besten eben kein besonderes Augenmerk auf das Linkattribut zu legen.

Ebenfalls unnatürlich sieht ein Backlinkprofil aus, das fast nur aus Nofollow-Links besteht. Dies kann schnell passieren, wenn man z. B. ausschließlich auf Links aus Blog-Kommentaren setzt. Ein guter und natürlich wirkender Mix ist nach wie vor das beste Mittel für nachhaltige Rankings.

2. Stark variierende Linkanker-Texte

In den vergangenen Monaten erschienen zahlreiche Analysen über die Verwendung verschiedener Linkanker-Texte. Durch Abbildung 13 wird ersichtlich, dass bei der analysierten Seite sehr viele unterschiedliche Linktexte verwendet wurden. Der häufigste Text „gpl“ wurde immerhin 290-mal verwendet, was ca. 17 Prozent aller verwendeten Linktexte entspricht. Vergleicht man dies mit Seiten, die unnatürlichen Linkaufbau betreiben, kann der am häufigsten verwendete Linktext schnell bei 40 % oder darüber liegen. Gerade wenn diese am häufigsten verwendeten Linktexte sog. Money-Keywords (also besonders werthaltige Suchbegriffe) sind, kann es sehr schnell kritisch werden!

3. Links von vertrauenswürdigen Domains

Analysiert man das Linkprofil der herausgegriffenen einzelnen Wikipedia-Seite z. B. nach einer Metrik der LinkResearchTools („Cemper Power Trust“), wird ersichtlich, dass sowohl schwache als auch starke Seiten auf diesen Artikel verlinken. Dem wurde zum Vergleich das Profil von 50 mittleren Domains gegenübergestellt, die an Affiliate-Programmen teilnehmen. Im Bereich der schwächeren Backlinks scheint der Unterschied nicht wirklich groß zu sein, allerdings ist es auffällig, dass die meisten Affiliate-Seiten kaum Backlinks von stärkeren Domains aufweisen. Solche Linkgeber könnten zum Beispiel ein Zeitungsportal, eine Universität oder auch eine staatliche Website sein. Das ist auch schnell einzusehen, denn welche dieser starken Seiten verweist schon freiwillig auf ein minderwertig wirkendes Vergleichsportal oder andere Seiten, die nur wenig Inhalt, dafür aber viele blinkende Banner bieten? Eine gut etablierte Webseite mit einem natürlichen Linkprofil hat in der Regel einen Großteil an Links von schwächeren Seiten, aber eben auch eine gute Anzahl an Backlinks von richtig großen, vertrauenswürdigen Domains.

Fazit

Natürlich hat kein Seitenbetreiber den Anspruch, inhaltlich in direkten Mittbewerb zu Wikipedia zu treten. Dennoch kann man sich vom Aufbau und der Struktur der Online-Enzyklopädie eine Menge abschauen. Exzellente und vor allem aktuelle Inhalte werden von Dritten oft sehr viel lieber verlinkt als möglichst günstig eingekaufte Artikel. Zum wiederholten Male zeigt sich, das eine natürliche Backlinkstruktur mit wechselnden Linktexten in Summe besser für ein gutes Ranking ist als der falsche Fokus auf möglichst nur starke Linkquellen, möglichst passende Keywords auf den Linktexten und die Vermeidung von Nofollow-Links. Eine schlanke Programmierung mit eher mehr als weniger Text tut ein Übriges, um die Seiten für Suchmaschinen attraktiv wirken zu lassen.