„Die Kunst des SEO: Strategie und Praxis erfolgreicher Suchmaschinenoptimierung“

von Rand Fishkin, Eric Enge, Stephan Spencer und Jessie C. Stricciola.

Insider aus der deutschen SEO-Szene kennen das in den USA erschienene Buch „The Art of SEO“ sicherlich schon recht gut. Ende Oktober erscheint nun die deutsche Übersetzung. Website Boosting hat für Sie vorab und exklusiv einen besonders interessanten Teil herausgreifen dürfen, den wir Ihnen nachfolgend als Leseprobe vorstellen. 

Eine bestehende Website auf SEO-Probleme hin untersuchen

Die Inspektion bestehender Websites ist eine der wichtigsten Aufgaben von SEO-Fachleuten. Die Suchmaschinenoptimierung ist eine relativ junge Disziplin und viele der Beschränkungen, denen Webcrawler unterliegen, erschließen sich nicht intuitiv. Dazu kommt, dass viele Webentwickler sich leider nicht besonders gut mit Suchmaschinenoptimierung auskennen. Noch bedauernswerter ist, dass viele von ihnen sich weigern, dazuzulernen oder – was noch schlimmer ist – irrige Vorstellungen von SEO haben. Das trifft auch auf die Entwickler von CMS-Plattformen zu, sodass es reichlich Gelegenheit gibt, bei der Inspektion von Websites Probleme ausfindig zu machen.

Komponenten der Inspektion

Wie in Kapitel 6 erörtert wird, muss die Website als solides Fundament dienen, wenn der Rest der SEO-Anstrengungen von Erfolg gekrönt sein soll. Die SEO-Überprüfung einer Website ist oft der erste Schritt auf dem Weg zur Umsetzung einer SEO-Strategie. Im Folgenden erfahren Sie, worauf Sie bei der Überprüfung einer Website achten sollten.

Usability


Auch wenn es sich dabei vielleicht nicht direkt um eine SEO-Angelegenheit handelt, ist es ein guter Ausgangspunkt. Die Usability wirkt sich auf viele andere Aspekte aus, unter anderem auf die Konversionsrate und auf die Wahrscheinlichkeit, dass andere Lust haben, auf eine Website zu verlinken.
 

Zugänglichkeit/„Crawlbarkeit“

Stellen Sie sicher, dass die Website freundlich zu den Webcrawlern der Suchmaschinen ist. Wir werden uns damit eingehender in den Abschnitten „Websites für Suchmaschinen erreichbar machen” und  „Die bestmögliche Informationsarchitektur (IA) erstellen” beschäftigen.

Schnellprüfung: Suchmaschinen


Hier ein paar Dinge, die sich auf die Schnelle überprüfen lassen:

  • Führen sie eine Suche nach site:ihredomain.de mit den Suchmaschinen durch und sehen Sie sich an, wie viele Ihrer Seiten im Index erfasst sind. Vergleichen Sie die Anzahl mit der Anzahl einzelner Seiten, die die Website Ihres Wissens enthält.
  • Überprüfen Sie mit einer Suche nach Ihren Markenbegriffen, ob Sie für diese platziert sind (wenn nicht, wurden Sie eventuell mit Sanktionen belegt).
  • Überprüfen Sie den Google-Cache daraufhin, ob die gecachten Versionen Ihrer Webseiten aussehen wie die aktuellen.
  • Stellen Sie sicher, dass die „Tools“ der Hauptsuchmaschinen die Domain korrekt erfassen. (Google und Bing bieten Website-Betreibern an, einen Blick „unter die Motorhaube“ zu werfen und sich einen Eindruck davon zu verschaffen, wie die Suchmaschinen die Website sehen.)
     

Schnellprüfung: Suchbegriffe

Werden die richtigen Suchbegriffe erreicht? Passt der logische Aufbau der Seite zu der Art und Weise, wie Benutzer nach den entsprechenden Schlagwörtern suchen? Zielt mehr als eine Seite auf ein und denselben Suchbegriff ab (das nennt man Keyword-Cannibalization, also „Schlagwortkannibalismus“)? Wir werden auf diese Punkte im Abschnitt „Keyword-Targeting” eingehen.

Doppelt vorhandene Inhalte/Duplicate Content

Als Erstes sollten Sie dafür sorgen, dass die Nicht-www-Versionen Ihrer Webseiten (z. B. ihredomain.de) 301-Weiterleitungen auf die entsprechenden www-Versionen haben (z. B. www.ihredomain.de) oder umgekehrt (das wird oft als canonical redirect, also „kanonische Weiterleitung“, bezeichnet). Und da Sie gerade dabei sind, können Sie noch sicherstellen, dass es keine https:-Seiten gibt, die Dubletten von http:-Seiten sind. Den übrigen Inhalt der Website sollten Sie auch entsprechend überprüfen. 

Am einfachsten geht das, indem man nach einzelnen unverwechselbaren Zeichenfolgen von jeder der Hauptinhaltsseiten der Website bei Google sucht. Denken Sie daran, die Zeichenfolge in Anführungszeichen zu setzen (z. B. „ein Satz von Ihrer Website, mit dessen Hilfe Sie nach doppelt vorhandenen Inhalten suchen“), damit Google nach der exakten Formulierung sucht.

Wenn Ihre Website unglaublich riesig und diese Mammutaufgabe deshalb schwerlich zu bewältigen ist, sollten Sie zumindest die allerwichtigsten Seiten überprüfen und eine Standardprozedur festlegen, mit der neuer Content jeweils überprüft wird, bevor er live geschaltet wird.

Sie können für die Suche nach doppelt vorhandenen Inhalten auch Befehle wie inurl: und intitle: verwenden (siehe Tabelle 2-1). Wenn Sie beispielsweise URLs für Seiten haben, die unverwechselbare Zeichenfolgen enthalten (z. B. „1968-mustang-blue“ oder „1097495“), können Sie diese mit dem Befehl inurl: suchen und sich ansehen, ob mehr als eine Seite als Ergebnis geliefert wird.

Mit Blick auf doppelt vorhandene Inhalte sollte außerdem dafür gesorgt werden, dass alle einzelnen Inhalte immer nur unter einer einzigen URL zu finden sind. Das ist etwas, womit große kommerzielle Websites mehr zu kämpfen haben als mit irgendeinem anderen Aspekt. Es stellt ein Problem dar, wenn derselbe Inhalt auf verschiedene Weise und über verschiedene URLs erreichbar ist, weil die Suchmaschinen (und die Besucher) dann selbst entscheiden müssen, welche Version die kanonische (also die „normale“) ist, auf welche verlinkt wird und welche außer Acht gelassen werden kann. Keiner hat etwas davon, wenn sich die Webseiten untereinander bekämpfen: Sorgen Sie für Frieden. Und wenn Sie bestimmte Inhalte unbedingt auf verschiedene Weise erreichbar machen müssen, dann verwenden Sie Cookies, damit die Webcrawler nicht durcheinanderkommen.

URLs

Stellen Sie sicher, dass Sie saubere, kurze, aussagekräftige URLs verwenden. Aussagekräftig bedeutet hier, dass sie zwar Schlagwörter enthalten, aber nicht mit ihnen vollgestopft sind. Angehängte Parameter sind zu vermeiden (und wenn es nicht anders geht, dann beschränken Sie sich zumindest auf ganz wenige) und die URLs sollten für Benutzer (und Webcrawler) einfach und leicht verständlich sein.

Titel-Tags

Sorgen Sie dafür, dass die Titel-Tags der einzelnen Webseiten individuell (also jeweils nur einmal vorhanden) und aussagekräftig sind. Wenn Sie möchten, dass der Markenname in den Titeln vorkommt, sollten Sie ihn eventuell ans Ende der Titel-Tags statt an den Anfang setzen, da das Platzieren von Schlagwörtern vorne in URLs sich positiv auf das Ranking auswirkt. Außerdem sollen Titel-Tags höchstens 70 Zeichen lang sein.

Content

Enthalten die Hauptseiten der Website genug Content? Hat jede von ihnen Header-Tags? Zumindest sollte sichergestellt sein, dass die Anzahl derjenigen Seiten einer Website, die nur wenig Content bieten, gemessen an der Gesamtzahl der Seiten nicht zu hoch ist.

Meta-Tags

Sehen Sie nach, ob auf den Seiten der Website Robots-Meta-Tags vorkommen. Wenn Sie einen finden, sind Sie womöglich schon einem Problem auf der Spur: Ein unbeabsichtigt gesetzter NoIndex-oder NoFollow-Tag (was diese sind, können Sie im Abschnitt „Content-Delivery und Einflussnahme auf Webcrawler” nachlesen) kann einem die Pläne für das Suchmaschinenranking ordentlich zerschießen.

Stellen Sie außerdem sicher, dass jede einzelne Seite eine individuelle (also nur einmal vorhandene) Metabeschreibung hat. Wenn das aus irgendwelchen Gründen nicht möglich sein sollte, müssen Sie in Betracht ziehen, die Metabeschreibungen komplett wegzulassen. Auch wenn die Metabeschreibungs-Tags grundsätzlich kein ausschlaggebender Faktor beim Ranking sind, können sie durchaus zum Auffinden doppelt vorhandener Inhalte herangezogen werden; außerdem werden sie von den Suchmaschinen oft als Beschreibungstext für Webseiten auf den Ergebnisseiten verwendet, weshalb sie die Klickrate beeinflussen.

Dateien Sitemaps und robots.txt

Benutzen Sie das Verifikationstool „Test robots.txt“ aus den Google-Webmaster-Tools, um Ihre Robots.txt-Datei zu überprüfen. Stellen Sie außerdem sicher, dass in Ihrer Sitemaps-Datei alle Ihre (kanonischen) Webseiten aufgeführt sind.

Weiterleitungen

Verwenden Sie ein Werkzeug zur Überprüfung von Server-Headern wie Live http Headers (http://livehttpheaders.mozdev.org), um sich davon zu überzeugen, dass alle Weiterleitungen, die auf der Website verwendet werden, den HTTP-Statuscode 301 zurückliefern. Überprüfen Sie auf diese Weise alle Weiterleitungen und stellen Sie auch sicher, dass die kanonische Weiterleitung korrekt implementiert ist.

Da es so schwer nachzuvollziehen ist, dass 301 die bevorzugte Weiterleitung ist, sollten Sie sich davon überzeugen, dass die entsprechenden Einstellungen korrekt gemacht wurden, selbst wenn Sie den Webentwickler ausdrücklich darum gebeten haben, es so zu tun. Fehler passieren und manchmal erschweren das Content-Management-System oder der Webhoster es, 301-Weiterleitungen zu verwenden. 

Interne Verlinkungen

Suchen Sie nach Seiten, die zu viele Links enthalten. Google empfiehlt höchstens 100 Links pro Seite, auch wenn es in Ordnung ist, diese Grenze bei Seiten zu überschreiten, die besonders wichtig sind oder auf die sehr viel verlinkt wird.

Stellen Sie sicher, dass die Möglichkeit der Verwendung von Ankertexten in den internen Links voll ausgeschöpft wird. Das ist eine kostenlose Methode, um die Benutzer und die Suchmaschinen darüber zu informieren, worum es auf den einzelnen Seiten einer Website geht. Missbrauchen Sie diese Möglichkeit aber nicht. Wenn es in der globalen Navigation beispielsweise einen Link auf die Startseite gibt (und das sollte es), dann nennen Sie diesen „Startseite“, anstatt das attraktivste Schlagwort zu nehmen. Suchmaschinen sehen diese Praxis nämlich als „spammig“ an, und für die User-Experience ist es auch nicht gut. Im Übrigen hat der Ankertext der internen Links auf die Startseite sowieso keinen positiven Einfluss auf die Platzierung. Behalten Sie bei all diesen Überprüfungen immer die Usability im Auge!

Tipp


Eine kleine Bemerkung am Rande zum Hamstern von PageRank: Viele haben es damit bis zum Äußersten getrieben und ihre Sites so aufgebaut, dass sie nicht auf andere hochwertige Websites verlinken, weil sie Angst davor haben, Besucher und Linkpower zu verlieren. Vergessen Sie's! Man sollte auf hochwertige Websites verlinken. Es ist gut für die Benutzer und wirkt sich meist positiv auf die Platzierungen aus (da die Zunahme von Vertrauen und Relevanz dadurch beeinflusst wird, auf welche Seiten man verlinkt). Denken Sie einfach an Ihre menschlichen Besucher und liefern Sie ihnen das, was sie vermutlich wollen. Es ist erstaunlich, wie weit man es damit bringt.

Vermeidung unnötiger Subdomains

Suchmaschinen übertragen die Vertrauenswürdigkeit und die Linkpower, die sie einer Domain attestieren, nicht automatisch vollständig auf Subdomains. Das liegt in erster Linie darin begründet, dass Subdomains durchaus von Dritten kontrolliert werden können, weshalb sie aus Sicht der Suchmaschinen separat bewertet werden müssen. In den allermeisten Fällen kann der Content einer Subdomain allerdings sorglos in einem Unterordner untergebracht werden.

Geotargeting

Geotargeting

Wenn die Domain für ein bestimmtes Land gedacht ist, sollten Sie daran denken, die im Abschnitt „Optimales Targeting für verschiedene Sprachen/Länder” in Kapitel 6 gegebenen Richtlinien zu befolgen. Wenn es Ihnen in erster Linie darum geht, eine Platzierung für frankfurt pizza zu erreichen, weil Ihnen eine Pizzeria in Frankfurt/Oder gehört, dann sorgen Sie dafür, dass die Adresse des Lokals auf jeder Seite der Website steht. Sie sollten auch überprüfen, ob mit Ihren Ergebnisse bei der Google-Lokalsuche alles in Ordnung ist. Außerdem werden Sie sich wohl bei Google Places registrieren wollen, das in Kapitel 9 detailliert besprochen wird.

Externe Verlinkungen

Überprüfen Sie die eingehenden Links. Verwenden Sie ein Backlinking-Tool wie Open Site Explorer (http://www.opensiteexplorer.org) oder Majestic SEO (http://www.majesticseo.com), um Daten über Ihre Links zu sammeln. Suchen Sie nach unerwünschten Mustern im Ankertext, zum Beispiel, ob 87 % der Links das entscheidende Schlagwort für die Website enthalten. Wenn dieses entscheidende Schlagwort nicht auch der Name der Firma ist, liegt ein Problem vor. Eine derartige Verteilung ist höchstwahrscheinlich das Ergebnis von Linkeinkauf oder anderem manipulativem Verhalten.

Andersherum sollten Sie dafür sorgen, dass das entscheidende Schlagwort für Ihre Website angemessen häufig auftaucht. Mangelhafte Verwendung des Schlagworts in den Ankertexten ist auch nicht vorteilhaft. Sie müssen ein Gleichgewicht finden.

Sie sollten sich auch darum bemühen, dass es Links auf andere Seiten als nur die Startseite gibt. Solche Links werden oft Deep Links genannt und sie tragen dazu bei, dass sich das Ranking für die entscheidenden Bereiche Ihrer Site verbessert. Besuchen Sie die Seiten, die auf Ihre verlinken, und sehen Sie sich an, als ob die Links wie bezahlte Links aussehen. Sie können offen als Sponsorenlinks gekennzeichnet oder so platziert sein, dass offensichtlich ist, dass es keine auf natürliche Weise entstandenen Empfehlungen sind. Zu viele davon sind ein sicheres Zeichen für Probleme.

Als Letztes sollten Sie überprüfen, wie das Linkprofil der Site im Vergleich zu denen der Hauptkonkurrenten aussieht. Stellen Sie sicher, dass es genug externe Links auf Ihre Website gibt und dass genug hochwertige Links dabei sind.

Seitenladezeit

Sind die Seitenladezeiten zu lang? Zu lange Ladezeiten können das Crawlen und Indexieren von Websites verlangsamen. Sie müssen aber wirklich extrem viel zu lange dauern, damit das eine Rolle spielt – also bestimmt länger als fünf Sekunden oder vielleicht noch länger.

Alt-Tags bei Grafiken

Verfügen alle Grafiken über relevante Dateinamen und Alt-Attributtexte? Für Suchmaschinen ist es nicht leicht herauszufinden, was in einer Grafik steckt, und die beste Methode, um ihnen Anhaltspunkte dafür an die Hand zu geben, sind die Alt-Attribute und Dateinamen von Grafiken. Und die können auch dazu beitragen, den inhaltlichen Gesamtzusammenhang zu verdeutlichen, in dem die jeweilige Seite steht.

Codequalität

Auch wenn die Suchmaschinen nicht auf W3C-Validierung angewiesen sind, ist es eine gute Idee, den Code an sich zu überprüfen. Wenn Seiten schlecht codiert sind, kann das unerwünschte Auswirkungen haben. Sie können ein Tool wie den SEO-Browser (http://www.seo-browser.com) verwenden, um sich anzusehen, wie eine Seite sich für die Suchmaschinen darstellt.

Die Wichtigkeit, Schlagwörter zu überprüfen

Eine weitere kritische Komponente bei der Inspektion der Website-Architektur ist die Überprüfung der Schlagwörter. Schematisch gesprochen besteht diese aus den im Folgenden dargestellten Schritten.

Schritt 1: Schlagwortrecherche

Es ist entscheidend, diesen Schritt so früh wie möglich durchzuführen, wenn man sich daran macht, eine Website für Suchmaschinen zu optimieren. Schlagwörter sind das Rückgrat des Onpage-SEO von Webseiten, also muss man wissen, auf welche man abzielt. Sie können das detailliert in Kapitel 5 nachlesen.

Schritt 2: Website-Architektur

Eine effektive Architektur für eine Website zu entwerfen, kann eine anspruchsvolle Aufgabe sein. In dieser Phase müssen Sie sich an den Ergebnissen der Schlagwortrecherche und an der bestehenden Struktur der Website orientieren (damit so wenige Veränderungen wie möglich vorgenommen werden müssen). Sie können sich das am besten anhand der Sitemap vorstellen.

Sie benötigen eine Hierarchie, die die Besucher der Website zu den sogenannten Money Pages führt (also zu den Seiten, auf denen die Wahrscheinlichkeit für Konversionen am höchsten ist). Natürlich sieht eine gute Seitenhierarchie die Möglichkeit vor, dass auch die Elternseiten der Money Pages für relevante Suchbegriffe gute Platzierungen erreichen (und diese Suchbegriffe sind dann wahrscheinlich nicht ganz so „long-tail“).

Bei den meisten Produkten ist offensichtlich, in welche Hierarchie sie hineinpassen, aber wenn es sich um etwas dreht, bei dem es von Natur aus verschiedene Parallelhierarchien gibt, wird es äußerst kompliziert. Die kompliziertesten Hierarchien sind unserer Meinung nach solche, bei denen die geografische Lage eine Rolle spielt. In Berlin gibt es beispielsweise Stadtbezirke, Ortsteile, Kieze, U-Bahn-Stationen und Postleitzahlen.

Wenn alles optimal verläuft, finden Sie am Ende eine einzige Hierarchie, die sich für die Benutzer natürlich anfühlt und den Schlagwörtern und ihren Strukturen gut entspricht. Wann immer es allerdings verschiedene Weisen gibt, auf die nach demselben Produkt gesucht wird, wird es sehr schwierig, eine Hierarchie aufzubauen.

Schritt 3: Schlagwortzuordnung

Wenn Sie eine Liste von Schlagwörtern und eine Vorstellung von der Gesamtarchitektur haben, können Sie damit anfangen, die wichtigsten relevanten Schlagwörter einzelnen URLs zuzuordnen (nicht andersherum). Wenn Sie das tun, können Sie leicht diejenigen geplanten Seiten identifizieren, die nicht auf Schlagwörter abzielen (und sie dann eventuell gar nicht erst erstellen), und – noch wichtiger – diejenigen Schlagwörter, zu denen es keine Seiten gibt.

Es sollte noch erwähnt werden, dass zwischen den Schritten 2 und 3 jegliche überflüssigen Seiten entfernt werden.

Wenn Sie bei diesem Schritt irgendwelche Probleme haben, dann kehren Sie noch einmal zu Schritt 2 zurück. Die Architektur Ihrer Website sollte ganz natürlich zu einer Zuordnung führen, die leicht umzusetzen ist und die relevanten Schlagwörter umfasst.

Schritt 4: Inspektion der Website

Wenn Sie mit der Schlagwortzuordnung fertig sind, ist die verbleibende Inspektion der Website ganz einfach. Wenn Sie jetzt die Titel- und Überschriften-Tags betrachten, können Sie sich direkt auf die Schlagwortzuordnung beziehen und so nicht nur sehen, ob die Überschrift in einem <h1>-Tag steht, sondern auch, ob sie die richtigen Schlagwörter enthält.

Keyword-Cannibalization (Schlagwortkannibalismus)


Schlagwortkannibalismus fängt normalerweise damit an, dass die Informationsarchitektur einer Website es nahelegt, dass mehrere Unterseiten einer Website auf einen einzigen Suchbegriff abzielen sollen. Das passiert oft unabsichtlich und kann dazu führen, dass es ein paar oder sogar Dutzende Seiten gibt, die dasselbe Zielschlagwort in den Titel- und Header-Tags haben. In Abbildung 4-5 ist das Problem zu erkennen.

Suchmaschinen crawlen dann die Seiten Ihrer Website und sehen dabei vier (oder 40) verschiedene Seiten, die anscheinend alle für ein und dasselbe Schlagwort relevant sind (in Abbildung 4-5 ist das snowboards). Google interpretiert das nicht in dem Sinne, dass die Website als ganze eine höhere Relevanz für Snowboards hat bzw. höher als die Konkurrenz platziert werden sollte. Stattdessen sieht sich Google dadurch dazu gezwungen, sich zwischen den verschiedenen Versionen der Seite zu entscheiden und sich diejenige auszusuchen, die seiner Meinung nach am besten zum Suchbegriff passt. Wenn das geschieht, gehen Ihnen einige Features durch die Lappen, die der Platzierung zuträglich sind:

Interner Ankertext

Da Sie so viele verschiedene Seiten mit demselben Thema anpreisen, können Sie den Nutzen interner Ankertexte nicht auf ein Ziel konzentrieren.

Externe Links

Wenn vier Websites auf eine Ihrer Seiten über Snowboards verlinken, drei weitere Websites auf eine andere und noch sechs weitere auf noch eine andere Snowboardseite, lassen Sie zu, dass der Wert Ihrer externen Verlinkungen auf drei Seiten aufgeteilt wird, anstatt ihn auf eine Seite zu konzentrieren.

Content-Qualität

Nach drei oder vier Seiten mit Text zum gleichen Hauptthema fängt der Nutzen des Contents an, geringer zu werden. Am effektivsten ist es, wenn eine bestimmte, optimal geeignete Seite Links und Verweise anzieht und nicht ein Dutzend uninteressanterer, sich wiederholender Seiten.

Konversionsrate

Wenn eine Seite häufiger zu Konversionen führt als mehrere andere, wobei alle auf denselben Suchbegriff abzielen, ist das Verschwendung. Wenn Sie die Konversionen genau nachverfolgen und aufschlüsseln möchten, sollten Sie dafür ein Multiple-Delivery-Testsystem verwenden (entweder A/B oder multivariat).

Worin besteht also die Lösung? Sehen Sie sich einfach einmal Abbildung 4-6 an. Der Unterschied bei diesem Beispiel besteht darin, dass nicht jede Seite auf den Begriff snowboards abzielt, sondern die einzelnen Seiten sich auf individuelle, wertvolle Variationen konzentrieren und dabei auf eine allen zugrunde liegende „kanonische“ Quelle für den jeweiligen Begriff zurückverlinken. Auf diese Weise kann Google problemlos die relevantesten Seiten für die einzelnen Suchbegriffe identifizieren. Das bringt nicht nur den Suchmaschinen etwas, sondern führt auch zu einer deutlich besseren User-Experience und Informationsarchitektur.

Was sollten Sie tun, wenn bereits Keyword-Cannibalization stattfindet? Wenden Sie großzügig 301-Weiterleitungen an, um Seiten loszuwerden, die miteinander in Konkurrenz stehen, oder finden Sie einen Weg, um die einzelnen Seiten voneinander zu differenzieren. Fangen Sie an, indem Sie alle Seiten in der Architektur identifizieren, bei denen dieses Problem besteht; überlegen Sie sich dann, welche Seite am besten dazu geeignet ist, die anderen auf sie verweisen zu lassen, und richten sie 301-Weiterleitungen von allen Problemseiten zu der einen ein, die Sie beibehalten möchten. Damit wird nicht nur sichergestellt, dass die Besucher auf der richtigen Seite landen, sondern auch, dass die Linkbilanz und die Relevanz, die im Laufe der Zeit aufgebaut wurden, den Suchmaschinen den Weg zu derjenigen Seite weisen, die am relevantesten ist und das höchste Rankingpotenzial für die Suchanfrage aufweist.

Beispiel: Behebung eines internen Verlinkungsproblems

Unternehmensseiten können zwischen 10.000 und 10 Millionen Seiten groß sein. Bei vielen derartigen Seiten stellt die unausgewogene Verteilung der internen Linkkraft ein großes Problem dar. In Abbildung 4-7 sehen Sie, wie das passieren kann.

Abbildung 4-7 stellt das Problem der Verteilung der Linkkraft dar. Stellen Sie sich vor, dass die kleinen Seiten in der Abbildung jeweils für 5.000 bis 100.000 Seiten einer Unternehmensseite stehen. Einige Bereiche, z. B. Blogs, Artikel, Tools, Nachrichtenmeldungen usw., bekommen eventuell deutlich mehr interne Verlinkungen, als sie verdienen. Andere Bereiche – oft solche, auf denen es sich um das Unternehmen und den Vertrieb dreht – werden quasi links liegen gelassen. Wie behebt man dieses Problem? Sehen Sie sich Abbildung 4-8 an.

Die Lösung ist ganz einfach – zumindest im Prinzip: Man lässt die Seiten mit vielen Links ihren Reichtum an ihre linkarmen Brüder weitergeben. Das klingt vielleicht einfach, kann aber unglaublich komplex in der Umsetzung sein. In der Architektur einer Site mit Hunderttausenden oder Millionen von Seiten kann es fast unmöglich sein, linkreiche und linkarme Seiten zu identifizieren, geschweige denn, Code hinzuzufügen, um den Linkjuice gleichmäßiger zu verteilen.

Vom Standpunkt der Programmierung aus gesehen ist die Lösung leider ziemlich arbeitsintensiv: Betreiber von Unternehmensseiten müssen Systeme entwickeln, mit denen sich einkommende Links und/oder die Rankings nachhalten und Brücken (oder, um mit Abbildung 4-8 konsistent zu bleiben, Abflussrohre) bauen lassen, die die Effektivität zwischen den linkreichen und linkarmen Seiten verteilen.

Eine mögliche Alternative besteht darin, eine sehr flache Website-Architektur aufzubauen, die auf Grundlage von Relevanz- oder Semantikanalysen funktioniert. Diese Strategie ist zwar nicht ganz so perfekt, entspricht aber besser den Richtlinien der Suchmaschinen und ist auf jeden Fall weniger arbeitsintensiv.

Dass die Suchmaschinen seit zwei bis drei Jahren der Domain-Autorität immer mehr Bedeutung beimessen, scheint interessanterweise einen Versuch darzustellen, sich nicht von schlechten internen Linkstrukturen fehlleiten zu lassen (Websites für guten PageRank-Flow zu strukturieren, ist manchmal nicht besonders gut für die Besucher) und Websites zu belohnen, die über große Autorität, Vertrauenswürdigkeit und hochwertige einkommende Links verfügen.

Server- und Hosting-Probleme

Glücklicherweise beeinträchtigen nur einige wenige verbreitete Server- bzw. Webhosting-Probleme die Suchmaschinenoptimierung. Wenn man sie allerdings nicht berücksichtigt, können sie zu massiven Problemen führen, weshalb sie doch einer Betrachtung wert sind. Die folgenden Aspekte von Servern und Hosting können die Suchmaschinenplatzierungen negativ beeinflussen:

Server-Timeouts

Wenn eine Suchmaschine eine Seite anfordert und diese nicht innerhalb des Zeitlimits des Bots ausgeliefert wird (oder einen Server-Timeout produziert), kann es passieren, dass die Seite überhaupt nicht in den Index aufgenommen wird, auf jeden Fall wird sie aber eine sehr schlechte Platzierung erhalten (da kein indexierbarer Text gefunden wird).

Lange Reaktionszeiten

Auch wenn lange Reaktionszeiten nicht so schädlich sind wie Server-Timeouts, stellen sie ein mögliches Problem dar. Webcrawler werden möglicherweise nicht so lange warten, bis die Seiten geladen sind, und auch Besucher und potenzielle Verlinker suchen sich vielleicht andere Ressourcen, weil sich der Zugriff auf Ihre Seite schwierig gestaltet.

Gemeinsame IP-Adressen

Zu den grundsätzlichen Risiken gehören Geschwindigkeitsprobleme, die Möglichkeit, spammende oder nicht vertrauenswürdige Nachbarn unter derselben IP-Adresse zu haben, und dass man eventuell nicht den vollen Nutzen aus Links zur eigenen IP-Adresse herausholen kann (mehr Details dazu finden Sie unter www.seroundtable.com/archives/002358.html).

Blockierte IP-Adressen

Während die Suchmaschinen das Internet durchforsten, stoßen sie oft auf ganze Blöcke von IP-Adressen, die nichts als unverschämten Webspam enthalten. Anstatt derartige Websites einzeln zu blockieren, gehen Suchmaschinen manchmal so weit, eine IP-Adresse oder gleich einen ganzen IP-Adressbereich zu sperren. Wenn Sie in dieser Hinsicht Befürchtungen haben, sollten Sie mithilfe einer ip:address-Anfrage auf Bing nach Ihrer IP-Adresse suchen.

Bot-Erkennung und -Behandlung

Manche Systemadministratoren gehen mit ihren Sicherheitsbestrebungen ein bisschen zu weit und verwehren Besuchern den Zugriff auf Seiten bzw. Dateien, wenn sie mehr als eine bestimmte Anzahl von Anfragen innerhalb eines gegebenen Zeitrahmens stellen. Das kann sich verheerend auf den Suchmaschinentraffic auswirken, da es Webcrawler in der Ausübung ihrer Tätigkeit behindert.

Bandbreiten- und Übertragungsbeschränkungen

Viele Server sind so eingestellt, dass nur eine bestimmte Menge von Traffic auf eine Website gelangen kann. Das kann schlimme Folgen haben, wenn Inhalte auf Ihrer Website sehr viel nachgefragt werden und der Webhoster den Zugriff unmöglich macht. Damit werden nicht nur potenzielle Verlinker daran gehindert, Ihren Content zu sehen (und damit auch daran, ihn zu verlinken), sondern auch die Suchmaschinen daran, Ihre Seiten zu erfassen.

Servergeografie

Auch wenn diese Angelegenheit nicht unbedingt ein Problem darstellen muss, sollte man sich darüber im Klaren sein, dass die Suchmaschinen auch anhand des Standorts des Webservers bestimmen, für welche Region der Inhalt einer Website relevant ist. Da die lokale Suche ein wichtiger Bestandteil vieler Kampagnen ist und bei geschätzten 40 % aller Suchanfragen lokale Aspekte eine Rolle spielen, ist es angebracht, eine Website in dem Land (feingranularer muss es nicht sein) hosten zu lassen, für das der Content am relevantesten ist.