Serienspecial: SEO fängt mit OnPage an

Teil 3: Interne Verlinkungsstruktur und -strategie

Irina Hey
Irina Hey

Irina Hey ist Head of Marketing & Communications bei OnPage.org – Innovative Tools für bessere Webseiten. Sie ist eine leidenschaftliche Suchmaschinenoptimiererin und Online-Marketing-Expertin. Die Passion für die Themen erwarb Irina bereits während ihres Studiums.

Mehr von diesem AutorArtikel als PDF laden

In der letzten Ausgabe der Website Boosting spielten Webseiten-Content und andere sichtbare Informationen eine große Rolle. Es wurde aufgezeigt, welchen Content Besucher potenziell gern ansehen, und die Bedeutung für Suchmaschinen wurde dargelegt. Im dritten Teil der sechsteiligen OnPage-Reihe geht es nun primär um die Verknüpfung der einzelnen Seiten eines Webauftritts mittels Hyperlinks und darum, welche wichtige und häufig unterschätzte Rolle solche Verlinkungen für die gute Positionierung in den Suchergebnissen spielen.  

Wer hat diesen Satz nicht schon mindestens einmal gehört: „Die Verlinkung zwischen einzelnen HTML-Dokumenten ist das Salz in der WWW-Suppe.“? Darin steckt tatsächlich sehr viel Wahrheit. Ein Webauftritt oder aber das gesamte Internet steht und fällt mit den Brücken von Seite zu Seite, den Hyperlinks. Welche Bedeutung haben die Links für Suchmaschinen? Die Antwort ist eindeutig: Eine ganz enorm wichtige. Links – egal, ob solche, die von anderen Domains kommen, oder die aus der eigenen Domain – sie alle sind essenziell, wenn man mit der eigenen Webseite erfolgreich in den Suchergebnissen positioniert werden möchte und an vielen Besuchern über den sog. organischen Traffic interessiert ist. Und wer möchte diesen kostenlosen Traffic über die berühmten „zehn blauen Links“ nicht?

Selbstverständlich muss man klar zwischen internen und externen Links unterscheiden. Externe Links zeigen von anderen Webseiten auf die eigene Seite und stellen somit Empfehlungen dar, an die man nicht so leicht kommt. Dabei muss man allerdings immer im Hinterkopf haben, dass es das Bestreben von Google ist, algorithmisch zu erkennen, ob ein solcher Link nun tatsächlich wegen guter Inhalte gesetzt wurde oder ob er im Zuge des manipulativen Linkaufbaus bewusst gesetzt wurde, um die Rankings zu manipulieren. Schließlich gibt es noch eine dritte große Gruppe an Links aus dem eigenen Netzwerk rechtlich mehr oder weniger stark verbundener Unternehmen. Viele Unternehmen betreiben nicht nur eine Domain, sondern gleich mehrere. Selbstverständlich werden diese in der Regel auch miteinander verlinkt. Daran ist nichts auszusetzen – auch Google tut das meist nicht. Allerdings zählen diese Links nur sehr wenig oder auch gar nicht, je nach erkanntem „Verwandtschaftsgrad“.

Der Einfluss der internen Links auf das Ranking wird, wie erwähnt, häufig noch immer unterschätzt. Während auf der eigenen Site wild und ohne Konzept hin und her verlinkt wird, oft nach dem Motto „Je mehr, desto besser“, steckt man eher Geld und Aufwand in den Aufbau externer Links. Dabei ist es viel einfacher und wirtschaftlicher, zunächst einmal beim internen Linkprofil aufzuräumen und feucht durchzuwischen.

Die Struktur einer Website

Das Spiel beginnt zunächst weit vor dem einzelnen Link, nämlich bei der Struktur der Site. Eine Webseite besitzt in der Regel eine Baumstruktur, wie man es aus der Ordnerstruktur eines Computers kennt. Ein Webauftritt besteht aus einer Domain, die ein Hauptverzeichnis (Root) besitzt, und in der Regel aus einer weiteren Anzahl an Unterverzeichnissen (Subfolder), die dann letztlich einzelne HTML-Dokumente beinhalten. Dabei können die Hierarchie-Ebenen der Domains über bis zu zehn Ebenen tief reichen, je nach Umfang einer Webseite. Die Verzeichnisse sind meist logisch aufzubauen, beginnend von der Startseite bis hin zu den unwichtigeren Seiten eines Webauftritts, wie Impressum oder Kontakt. Da die Seiten durch Links miteinander verknüpft sind, merkt der Besucher von diesen Verzeichnissen meist nichts, außer wenn er auf die wechselnde Webadresse schaut. Bei einigen Browsern, so z. B. beim internen Browser auf dem iPad, sieht man allerdings nur noch den Domainnamen. Das Einsortieren der Inhalte dient also in der Regel eher dem Verwalten einer Domain und erhöht auf Dateiebene die Übersichtlichkeit, ähnlich wie man sich daran gewöhnt hat, die eigene Festplatte zu organisieren.

Eines der größten Missverständnisse liegt bei Websitebetreibern wohl darin begründet, dass sie ihre Sitestruktur nur von der Navigation mit dem menschlichen Auge her sehen: Die Navigation führt – via Links – dabei eine Ebene tiefer und von dort gelangt man über weitere Navigationspunkte nochmals tiefer in den Webauftritt. Der Robot einer Suchmaschine sieht das aber völlig anders, denn er erkennt bzw. findet ja jeden Link, der auf einer Seite gesetzt wurde. Jede so angelinkte Seite ist nur einen Klick entfernt und stellt damit z. B. von der Startseite aus gesehen die nächsttiefere Ebene dar. Linkt man von der Startseite also eine Detailseite an, die über die Navigation nur in mehreren Schritten erreichbar wäre, zieht man sie damit aus Sicht der Suchmaschine direkt auf die zweite Ebene hoch – gleichwertig mit der Hauptnavigation. Es kommt noch besser: Alle Seiten, die diese vermeintlich tiefer liegende Detailseite anlinkt, rutschen nun ebenfalls womöglich mehrere Ebenen hoch! Insofern kann die „sauber“ geplante Hierarchie ganz schön durcheinandergeraten und letztlich wirkt sie auf Google & Co. völlig anders, als man geplant hat.

Sitemap.xml

Eine Sitemap ist eine Datei im XML-Format, die eine Art Inhaltsverzeichnis einer Webseite darstellt. Dort sind alle Seiten bzw. URLs aufgelistet. Liegt eine solche Datei auf dem Server, wird die Suchmaschine diese durchsuchen, sofern die Adresse dieser Sitemap bekannt ist. Bei Google und Bing kann man diese übrigens über die Webmaster-Tools entsprechend anmelden. Es kann durchaus Sinn machen, dort auch die Seiten/URLs aufzulisten, die sonst nicht oder nicht so einfach gefunden werden können. Durch die Einreichung der XML-Datei in den Webmaster-Tools kann man also der Suchmaschine bestimmte Seiten explizit mitteilen. Natürlich gibt es keine Garantie, dass die Suchmaschine diese in den Index aufnimmt. Es bleibt auch fraglich, wie z. B. Google eine so gemeldete Seite behandelt, die erkennbar keine eigenen internen Eingangslinks hat. Wenn man schon selbst diese Seite für die Besucher nicht anlinkt, warum sollte sie dann für irgendetwas ranken? Grundsätzlich ist es aber im Interesse der Suchmaschine, die Struktur einer Seite komplett zu kennen. Wo solche (verwaisten) Seiten ranken können, ist im extremen Longtail, also bei Suchen mit vielen Wörtern, zu denen die Seite ggf. inhaltlich passt.

Wann ist eine Sitemap hilfreich:

  • bei dynamischen Inhalten
  • bei Seiten, die nicht leicht zu crawlen sind (z. B. Verlinkung mit AJAX, JavaScript, Videos etc.)
  • bei neu hinzugekommenen Seiten
  • bei einer großen Anzahl an Seiten, die miteinander nur schlecht verbunden sind

Um eine Sitemap erstellen zu lassen, benötigen Sie lediglich ein paar Klicks und ein paar Minuten Wartezeit. Es gibt eine Reihe kostenfreier Tools, die Ihnen die manuelle Erstellung einer Sitemap ersparen. Beispiele sind der Sitemap Generator von www.xml-sitemaps.com oder die deutsche Variante www.xml-sitemaps-generator.de. Beide Dienste erstellen durch die Angabe einer Domain-URL in wenigen Minuten eine Sitemap, die man weiterverwenden kann. Sollten Sie spezielle Verzeichnisse und URLs angeben, können Sie dies jedoch auch ganz einfach manuell tun und die bestehende Sitemap um Einträge ergänzen. Aber Vorsicht: Seiten, die nicht transparent verlinkt sind, finden diese Tools natürlich auch nicht. Diese müssten sie manuell hinzufügen oder besser prüfen, ob Ihr CMS oder Shopsystem in der Lage ist (ggf. per Plug-in), aus der gespeicherten Struktur automatisch eine Sitemap zu erzeugen.

Navigation

Eine gute Navigation wird häufig vom User gar nicht so richtig wahrgenommen. Ist sie durchdacht und verständlich aufgebaut, bleibt sie deswegen unbemerkt, weil die Webseitenbesucher sie ganz intuitiv nutzen. Es gibt sehr viele verschiedene Herangehensweisen, wie man eine Navigation gestaltet. Alle Navigationsarten haben ihre Vor- und Nachteile. Bei der Navigationserstellung steht jedoch immer der Nutzer im Vordergrund, weshalb man sich ausschließlich auf ihn konzentrieren sollte.

Übliche Navigationsarten:

  • Step-by-Step-Navigation
  • Paginierung
  • Bread-Crumb
  • Baumnavigation
  • Tag Clouds
  • Menüs
  • Dynamische Menüs/Drop-downs
  • Suchnavigation
  • Mischformen

Für Suchmaschinen muss die Navigation technisch möglichst einwandfrei gestaltet sein, damit alle URLs/Seiten erfasst werden können. HTML mit CSS-Elementen sowie einfache Textlinks eignen sich für eine suchmaschinenfreundliche Navigation am besten. Denken Sie daran, dass Techniken wie AJAX, JavaScript, Frames oder auch Flash von Suchmaschinen nicht oder nur bedingt gelesen bzw. erkannt werden können. Riskieren Sie also nicht, dass die Suchmaschine Ihre Navigation nur unzureichend interpretieren kann. Vielleicht gewinnen Sie mit einer optisch und funktionell abgefahrenen Navigation ja eine Goldene Palme in Cannes. Der wahre „Preis“ dafür ist in der Regel ein sehr schlechtes Ranking, weil die Robots der Suchmaschinen die darunterliegenden Seiten nicht richtig finden oder sie durch die fehlenden Signale (eingehende interne Links) für unwichtig erachten.

Wie sieht die Struktur meiner Seite aktuell aus?

Die Erfahrung zeigt, dass Websitebetreiber oft die tatsächliche Struktur ihrer Website gar nicht kennen bzw. diese nur aus Sicht der Navigation wahrnehmen. Die Aha-Erlebnisse kommen dann, wenn man sie z. B. mit Tools wie Gephi https://gephi.org/ visualisiert und analysiert, ob die Struktur wirklich „gesund“ ist und ob auch die Seiten, die wichtig sind, gut verlinkt sind.

Schwierig wird es erfahrungsgemäß bei sehr umfangreichen Sites, bei denen die Anzahl der Unterseiten in die Millionen geht. Hier kann man versuchen, zumindest die Verzeichnisstruktur nachzuvollziehen.

Eine Seitenstruktur, welche die Wichtigkeit einzelner Seiten durch die interne Verlinkung berücksichtigt, ist ein wesentlicher Bestandteil einer vernünftigen OnPage-Optimierung. Sind Verzeichnisse in der robots.txt oder durch Anweisungen im Meta-Robots-Tag gesperrt, kann die Suchmaschine nicht alle HTML-Dokumente vollständig erfassen. Dasselbe gilt für schlechte interne Verlinkung oder wenn mehrere Redirects hintereinandergeschaltet sind. Hier helfen auch Sitemaps nicht oder nur bedingt.

Best Practice einer internen Verlinkung

Die Power der internen Verlinkung zu aktivieren, ist gar nicht so schwer. Man muss nur das Grundprinzip der Seitenbewertung durch Links richtig verstanden haben: Je mehr interne Links auf eine Seite verweisen, umso höher ist das Gewicht dieser Seite. Die Suchmaschine untersucht im Vorfeld die Vererbung dieser „Kraft" durch Links (im SEO-Jargon auch als „Linkjuice“, also Linksaft bezeichnet) der Seiten untereinander. Verweisen sehr viele Seiten auf nur eine Seite, bekommt diese mehr Bedeutung zugerechnet. Das heißt, wenn man ein neues Webdokument von einer solchen starken Seite aus verlinkt, bringt das einen enormen Kraftschub für die neue Seite. Sie wird dann potenziell besser ranken.

 

Die ideale Seitenstruktur stellt in der Regel der hierarchische Aufbau eines Baumes dar, wobei der Knoten oben die Startseite darstellt. Man sieht dort beispielhaft, dass zwischen den einzelnen Unterseiten keine Verbindungen bestehen. Diese Art der Steuerung wäre für die Linkjuice-Verteilung sehr hilfreich, weil sie gleichmäßig von der Hauptseite zur Unterseite verläuft. Solche Strukturen lassen sich in der Realität natürlich nicht genau so erzeugen bzw. sie machen für Besucher keinen Sinn, weil durch die Navigation dann nur Klinks nach „unten“ in der Hierarchie möglich wären, aber nicht „quer“ innerhalb der gleichen Hierarchieebene.

Linkbasics

Ein interner Link ist eine direkte Verbindung einer Unterseite einer Domain zu einer anderen Unterseite der gleichen Domain. Grundsätzlich haben die internen Links drei wesentliche Aufgaben:

  • Nutzern das Navigieren zu ermöglichen
  • Einer Website eine Struktur zu geben
  • Linkjuice (Seitenkraft) zu vererben bzw. zu verteilen

Im Quellcode wird ein interner Link allgemein folgendermaßen deklariert:

Neben dem öffnenden HTML-Tag für Links <a> weist eine Referenzadresse zur eigenen Domain sowie die textuelle Beschreibung des Linkziels, die man als Linktext oder Ankertext (engl. Anchortext) bezeichnet. Der User bekommt diesen Ankertext im Browser angezeigt und kann darauf klicken, um zu der genannten Seite zu kommen.

Anchortext

Der Anchortext ist für Besucher und damit natürlich auch für Suchmaschinen ein sehr wichtiger Hinweis, wohin diese Tür, also der klickbare Link, führt. Er sollte daher auf jeden Fall immer gut beschreibend gewählt werden. Aus Anchortexten wie „Hier klicken“ oder „Weiter“ kann die Suchmaschine nicht erkennen, worum es auf der Zielseite inhaltlich geht. Aus Webmaster-Sicht sollte man daher immer versuchen, relevante Keywords genau dort unterzubringen. Das ist keine Manipulation – das ist sowohl für den Nutzer als auch für die Suchmaschine hilfreich.

Folgendes Beispiel verdeutlicht die Verwendung und die Bedeutung des Anchortextes.

Ein Beispiel:
Von der Startseite eines fiktiven Schuhshops „Schuh-Fritz.de“ soll der Nutzer zur Kategorie „Westernstiefel“ gelangen. Diese Seite soll auch für das Keyword „Westernstiefel“ ranken. Es macht Sinn, den internen Link genauso zu benennen wie das Hauptkeyword dieser Seite. Der interne Link dazu würde also lauten:

<a href = "http://www.schuh-fritz.de/westernstiefel.html">Westernstiefel</a>

Dies sollte sich am besten durch den kompletten Webauftritt ziehen: Verlinken Sie von überall, wo es zu „Westernstiefel“ gehen soll, z. B. aus der „Pumps“- oder „Sandalen“-Unterkategorie, immer mit einem eindeutigen Anchortext.

Vermeiden Sie den Wechsel des Anchortextes zu einer Seite. So geben Sie der Suchmaschine einen klaren durchgehenden Hinweis, unter welchem Anchortext eine spezielle Seite zu finden ist. Die Westernstiefel-Kategorie wird somit durchgehend mit dem Anchortext „Westernstiefel“ intern verlinkt. Abbildung 7 zeigt dies nochmals schematisch auf: Von der Startseite geht ein eindeutiger Linktext zur Kategorieseite. Von dort aus werden andere, weiter differenzierende Linktexte benutzt, hier im Beispiel kommt der Farbenzusatz dazu. Seite A zeigt mit dem Linktext „Übersicht Westernstiefel“ auf die Kategorieseite. Das ist allerdings nur suboptimal, denn alle eingehenden Links zu dieser Seite sollten möglichst identisch sein. Hier wäre also nur „Westernstiefel“ als Linktext besser, weil er sich mit dem von der Startseite deckt. Seite B verlinkt mit „Westernstiefel“ auf die Detailseite mit den orange Westernstiefeln. Auch das ist nicht stringent, weil damit eingehende Linktexte zu dieser Seite unterschiedlich wären. Entweder verlinkt Seite B also auf die Kategorieseite mit „Westernstiefel“ oder, wie in der Abbildung gezeigt, zu der Detailseite – dann aber besser mit dem Linktext „orange Westernstiefel“.

Absolute und relative Links

In HTML-Dokumenten werden externe Quellen mittels absoluter Links referenziert. Bei internen Verlinkungen ist die Angabe der Referenz-Domain nicht zwingend notwendig. Es ist also möglich, ohne Angabe der Domain mit der (relativen) Angabe der Unterverzeichnisse und Dokumentennamen einen Link innerhalb des eigenen Webauftritts zu deklarieren. Abbildung 8 zeigt die Unterschiede beider Linkarten. Bei einer relativen Verlinkung gelangt man ebenfalls direkt zum Dokument. Diese Vorgehensweise ist allerdings nicht empfehlenswert. Zum einen gelingt es den Robots der Suchmaschinen nicht immer, aus den relativen Hinweisen absolute Links zusammenzumontieren. Dazu muss die Suchmaschine zunächst den aktuellen Pfad ermitteln und ihn dann relativ verändern und für ein korrektes Crawling als absolute Adresse zusammenbauen. Bei Google klappt das in der Regel recht gut, bei anderen Suchmaschinen gibt es hier leider mehr Probleme. Aber auch Google empfiehlt, absolute Linkadressen zu verwenden. Absolute Links haben aber auch noch einen weiteren Vorteil: Wird die Seite oder gar die gesamte Site von betrügerisch arbeitenden SEOs kopiert, weisen alles Links wieder zur eigenen Domain, weil das www.eigene-domain.de ja mit im Link enthalten ist. Bei relativen Angaben ist das nicht der Fall und alle kopierten Seiten „funktionieren“ auf jeder beliebigen Domain – die Links zeigen zur kopierten Domain. Dies ist übrigens auch der Grund, warum Webagenturen gern relative Links verwenden. Damit können sie z. B. bei Relaunches dem Kunden alles vorab unter beliebigen Testdomains zeigen und dann einfach alles auf die eigentliche Domain umkopieren.

Sollten Stylesheets oder Grafiken innerhalb der Sitestruktur verschoben werden, stimmt übrigens der relative URL-Pfad auch nicht mehr und der User bekommt die Seite unter Umständen nicht mehr oder optisch nicht mehr korrekt angezeigt. Der interne Link wird fehlerhaft und gibt im schlimmsten Fall eine Fehlerseite (404-Status: Not found) zurück.

Follow- und Nofollow-Attribute bei Links

Die Syntax eines Hyperlinks ermöglicht zudem das Hinzufügen bestimmter Attribute zu einem Link. Zwei Attribute spielen im Zusammenhang mit der internen Verlinkung eine spezielle Rolle. Durch die Kennzeichnung eines Links mit „ollow“ und „nofollow“ kann man dem Suchmaschinenbot explizit mitteilen, ob den Links „gefolgt“" (follow) oder nicht gefolgt (nofollow) werden soll – also ob die Suchmaschine den Link erfassen und die damit referenzierte URL überprüfen soll. Die mit „nofollow” markierten Links werden durch die Suchmaschine in der Regel zwar gecrawlt, jedoch in der Bewertung zumindest laut Google bei der PageRank-Berechnung nicht berücksichtigt. Vor einigen Jahren versuchten Webmaster, mittels des sog. PageRank-Sculptings über das Nofollow-Attribut gezielt den Verlauf der Linkkraft zu steuern. Dies ist aber heutzutage nicht mehr so einfach möglich, sodass die Empfehlung seitens des Suchmaschinenbetreibers lautet, alle Links als Follow-Links zu deklarieren. Einen internen Link mit dem Nofollow-Attribut zu entwerten, macht auch keinerlei Sinn.

Status-Codes der verlinkten Seiten

Links können zu einer Seite direkt referenzieren, es könnte eine Weiterleitung darauf eingerichtet sein oder ein Fehlercode kann vom Server zurückgeliefert werden. Jeder „tote“ ausgehende Link (z. B. Status-Code: 404) ist wertvoller verlorener Linkjuice für die Seite, auf die der Link verweist bzw. eigentlich verweisen sollte. Deshalb sollte man verstärkt darauf achten, dass der Status-Code der verlinkten Seite immer den Wert 200 (Erfolg) enthält bzw. so vom Webserver zurückgeliefert wird. Gibt die Seite einen Fehlercode zurück, sollte dies möglichst schnell behoben werden, um Rankingverluste des betroffenen Dokumentes zu vermeiden. Sollten mehrere Redirects hintereinandergeschaltet sein, sodass der Suchmaschinenbot erst ein paarmal weitergeleitet wird, bevor er zu der referenzierten Unterseite gelangt, dann könnte sich dies ebenfalls negativ auf das Ranking auswirken. Zudem kostet es unnötig Zeit für den Suchenden und auch den Robot der Suchmaschine. Bei der OnPage-Optimierung ist es daher wichtig, solche Fehler zu identifizieren und zu beseitigen.

Anzahl Links in einem Webdokument

Zählt man wirklich alle Links auf einer Seite, kommt oft eine erschreckend hohe Zahl heraus, die gar nicht so selten deutlich dreistellig ist. Denn in er Regel enthält nicht nur die Navigation zahlreiche Links, sondern auch Sidebars, Links aus dem Textbereich, Footerlinks und andere Bereiche einer Seite. Während bereits bei Informationsseiten etliche interne Verweise gezählt werden, können bei Listenansichten oder Online-Shop-Kategorien dann wirklich zu viele Links zusammenkommen. Es gibt grundsätzlich keine Einschränkung oder Faustregel, wie viele interne Links pro Unterseite erlaubt sind. Die Suchmaschinen-Crawler sind mittlerweile sehr mächtig und können eine Vielzahl an Verweisen erfassen. Problematisch und unüberschaubar wird es natürlich für die Nutzer. Bei einer so großen Anzahl an Links kann es vermutlich einfach „zu viel“ werden, sodass man die Seite aufgrund der Fülle der Informationen schnell verlässt. Steigt die Ausstiegsrate (Bounce-Rate) der Nutzer möglicherweise stark an, ist das gleichzeitig ein Warnhinweis für Suchmaschinen, wodurch das Ranking ebenfalls negativ beeinflusst werden könnte. Die Anzahl der internen Links auf einer Seite spielt also durchaus eine wichtige Rolle, sowohl für das Ranking der Seite selbst als auch für die User Experience. Und das zügellose Verlinken von möglichst allen Seiten auf möglichst alle anderen Seiten bringt für SEO auch keinen wirklichen Vorteil. Je mehr Links von einer Seite abgehen, desto weniger „Wert“, der über den Link vererbt wird, bleibt für den einzelnen Link. Gehen von einer Seite nur 20 Links ab, kann jeder dieser Links fünf Prozent (ein 20tel) des gesamten Linkjuice dieser Seite auf die verlinkte Seite übertragen. Gehen 200 Links ab, hat ein einzelner Link rechnerisch nur noch 0,5 Prozent übertragbaren Wert. Mehr Links verwässern also eher, als dass sie wirklich nützen.

Tipps zu internen Verlinkung: Checkliste

  1. Legen Sie eine Sitemap.xml an.
  2. Verknüpfen Sie alle Seiten mit verwandtem Content sinnvoll durch Links miteinander.
  3. Verwenden Sie wichtige Keywords wenn möglich auch in der Navigation.
  4. Erstellen Sie ggf. eine gesonderte Navigation für Seiten, die besonders gut ranken sollen.
  5. Verwenden Sie Keywords auch in der Breadcrumb-Navigation.
  6. Verwenden Sie Keywords im Anchortext.
  7. Verlinken Sie auf eine Seite möglichst immer mit dem gleichen Anchortext.
  8. Verlinken Sie nie mit gleichen Anchortexten auf unterschiedliche Seiten.
  9. Vermeiden Sie Broken Links und Links zu Seiten, die nicht erreichbar sind.
  10. Verwaiste Seiten sollten identifiziert und intern transparent verlinkt werden.
  11. Verwenden Sie absolute Link-Adressen.
  12. Beobachten Sie die Linkziele und beseitigen Sie Seiten aus einer „schlechten Nachbarschaft“.

Alle internen Links im Blick und damit zu 100 Prozent im Griff zu haben, erscheint ab einer gewissen Seitenanzahl als utopisch. Allerdings kann man tatsächlich oft mit bereits einigen wenigen, aber zentralen Änderungen viel erreichen. Dies erfordert zwar bestimmte technische, aber gar nicht so tief gehende Kenntnisse und einen gewissen Überblick über die Seitenarchitektur. Mithilfe einer Site- bzw. Seitenanalyse und einiger einfacher Tipps ist es jedoch vergleichsweise leicht möglich, die wichtigsten Problemstellen zu identifizieren und zu beheben. Es müssen nicht immer teure und mit Risiko behaftete extern zugekaufte Links sein, die eine Seite für einen Suchbegriff im Ranking spürbar nach vorn schieben. Auch und gerade interne Links haben sehr viel oft ungenutzte Power. Im Gegenteil kann man mit falscher interner Verlinkung sogar einen nennenswerten Teil des extern aufgebauten Potenzials wieder vernichten!

Good or bad neighbourhood

Es gibt eine Fülle an Webseiten, die thematisch miteinander verwandt sind. Viele Links aus dem eigenen Webauftritt führen zu anderen Websites, um dem Besucher mögliche weiterführende Informationen zu liefern oder passende Produkte anzubieten. Das ist auch gut so. Durch die Verlinkungen zu anderen Quellen kann man den Benutzern das Optimum an Informationen zu einem Thema an die Hand geben und ihn letztlich zufriedenstellen, ohne dass man selbst die Informationen besitzt. Das Web lebt durch solche Verlinkungen. Die Verknüpfungen zu verwandten Sites sind auch für Suchmaschinen nachvollziehbar und logisch. Doch als Webmaster einer vertrauenswürdigen Domain sollte man stets die Qualität der weiterführenden Inhalte im Blick haben. Verlinkt man nämlich zu fragwürdigen Angeboten, Abzockerseiten, Glücksspielseiten oder auf Seiten mit pornografischen Inhalten, ist das für Suchmaschinen schnell ein Indiz für eine sogenannte „schlechte Nachbarschaft“. Häufig passiert so etwas völlig ungewollt. Man verlinkt auf einen vernünftigen Webauftritt. Jahre später bestehen die Links noch immer, aber die Inhaber der verlinkten Webseite haben längst gewechselt und die Themenverwandtschaft ist auch nicht mehr gegeben. Der eigentliche Grund für das sog. Domainsnapping liegt genau hier: Man registriert frei gewordene, „gebrauchte“ Domains, weil diese in der Regel bereits einen guten Bestand an eingehenden Links haben und die verlinkenden Webmaster nie oder nur selten nachsehen, was aus den Seiten, auf die mal damals verlinkt hat, im Lauf der Zeit geworden ist.

Aber es kann noch schlimmer kommen, wenn sich auf der verlinkten Seite Malware oder andere Schadsoftware befindet. Damit tut man der eigenen Domain keinen Gefallen und gerät schnell ins Spam-Visier. Dies ist jedoch mit einem entsprechenden Monitoring von ausgehenden externen Links leicht überprüfbar. Man sollte also auch immer wieder mal etwas genauer auf die Webseiten sehen, auf die man verlinkt.  

Linkpositionen innerhalb eines HTML-Dokuments

Ein häufig umstrittenes Thema ist die Linkposition innerhalb eines Dokuments. Ob der interne Link zu einer weiteren Seite oben im sichtbaren Bildschirmbereich (Above-the-Fold) oder ganz unten platziert ist, spielt, anders als bei externen Links, eine zunächst eher untergeordnete Rolle, was eine mögliche Abwertung angeht. Der Suchmaschinenrobot ist durchaus in der Lage, domainweite Footerlinks von einzelnen Links aus dem Content heraus zu unterscheiden und diese entsprechend auszuwerten. Links aus dem Content heraus wirken sehr viel stärker und man muss nicht befürchten, eine Strafe zu riskieren. Sammelt man im Vergleich zu viele solcher Contentlinks von anderen, externen Domains ein, kann genau das nämlich schnell passieren: Man bekommt eine Keyword-, Seiten- oder gar Verzeichnisstrafe bzw. eine Abwertung der Rankings für die entsprechenden Seiten und Keywords.

Gefährlich: Broken Links und Links auf 404-Seiten

Ist ein Link syntaktisch im Quellcode falsch deklariert oder verweist auf eine Seite, die auf dem Server nicht erreichbar ist, wird er als Broken Link bezeichnet. Diese „kaputten“ Verknüpfungen zeigen auf Seiten, die nicht existieren oder deren Referenzen nicht gefunden werden.

Solche Links führen sowohl den User als auch den Suchmaschinenrobot ins Leere, was leicht einsehbar dringend vermieden werden soll. Es gibt zahlreiche kostenlose und kostenpflichtige Tools, die innerhalb weniger Minuten oder Stunden alle fehlerhaften (Broken) Links auf der eigenen Seite finden.

Man darf nie die Tatsache aus dem Auge verlieren, dass eine Suchmaschine anders als ein selektiv wahrnehmender Mensch „denkt“. Während Menschen bestimmte unwichtig wirkende Dinge (z. B. Footerlinks) einfach ausblenden und so solche Fehler möglicherweise gar nicht erst bemerken, erfasst die Maschine alle Links und zählt Broken Links einfach in Summe zusammen. Dann zieht sie maschinell und automatisch den Schluss, dass jeder x-te Klick auf die Seiten dieser Domain zu einer Fehlerseite führt. Dass man Suchenden seitens der Suchmaschinenbetreiber keine Seiten empfehlen möchte, auf der die weiteführenden Links zum Teil nicht richtig funktionieren, ist sicher für jeden einsichtig und nachvollziehbar.

Fazit

Die Optimierung der internen Verlinkung ist eine sehr umfangreiche, aber gleichzeitig auch sehr wichtige und notwendige Aufgabe des Webmasters. Vor allem die bestehende Struktur der Site sowie deren Verlinkungen umzubauen, beansprucht sorgfältige Planung und damit viel Zeit. Wer diese Aufgabe nachhaltig angehen möchte, sollte auch über den Einsatz professioneller Tools nachdenken, die dabei unterstützen und viel manuelle Arbeit abnehmen können.

Einige Tipps aus der nachfolgenden Checkliste können vielleicht helfen, die Struktur, die Navigation und die interne Verlinkung zu optimieren.