Suchmaschinenoptimierung Basics II

Mario Fischer
Mario Fischer

Mario Fischer ist Herausgeber und Chefredakteur der Website Boosting und seit der ersten Stunde des Webs von Optimierungsmöglichkeiten fasziniert. Er berät namhafte Unternehmen aller Größen und Branchen und lehrt im neu gegründeten Studiengang E-Commerce an der Hochschule für angewandte Wissenschaften in Würzburg.

Mehr von diesem AutorArtikel als PDF laden

Der erste Teil dieser Serie beschäftigte sich mit der sogenannten „Onpage“-Optimierung. Im zweiten Teil geht es nun darum, welche Dinge für die gesamte Website zu beachten sind.

Suchmaschinen nähren sich im Wesentlichen von Text und für sie erkennbare, das bedeutet „transparente“ Links. Über Letztere gelangen sie ständig an neue Adressen. Über die interne Verlinkung einer Website versucht sich eine Suchmaschine, daher auch ein gutes Bild vom Aufbau einer Webpräsenz zu machen. Dabei ist es wichtig, die mit den Links erzeugte Struktur auch tatsächlich so zu sehen, wie es die Robots (auch Spider oder Crawler gennant) tun. Die können nämlich nicht unterscheiden, ob ein Set von Links die Navigation darstellt, oder ob es einfach nur eine Linksammlung im Content oder am Ende der Seite ist. Der Robot sammelt also zunächst prinzipiell alle Links einer Seite und listet sie als potenziellen „Ausgang“ für diese Seite auf. Der betrachtende Mensch tendiert leider in der Regel dazu, der Maschine hier zu viel Intelligenz zu unterstellen. Man sieht ja selber zweifelsfrei, wo sich die Navigation befindet, wo eher unwichtige Links hinzeigen oder welche Links gar nur deswegen da sind, um den Forderungen des Gesetzgebers Genüge zu tun. Der maschinellen Analyse ist das einerlei, jeder Link ist technisch gesehen erst einmal gleichwertig.

Die Architektur

Unter diesem Blickwinkel wird schnell klar, warum gute Suchmaschinenoptimierer bei der Erstellung einer Site oder bei einem größeren Relaunch immer auch die sogenannte Site-Architektur betrachten. Welche Seiten verlinken wohin und wie viele Links aus welcher Hierarchiestufe zeigen auf welche Seiten? Im Prinzip gilt nämlich vereinfacht erklärt auch für die eigene Webpräsenz, was für das gesamte Web gilt: Je mehr Links auf eine Seite zeigen, desto „wichtiger“ erscheint den Maschinen diese Seite. Haben nämlich beispielsweise die Seiten mit dem Kontaktformular oder den Datenschutzhinweisen gar die meisten eingehenden Links, sind sie aus Sicht einer Suchmaschinenanalyse wohl wichtig. Sicherlich sind sie aber unter dieser Perspektive wichtiger als die zentrale Produktseite(n), wenn diese im Verhältnis mit nur einem einzigen Link aus der Navigation daherkommt. Und noch schlimmer, wenn ausgerechnet die Navigation mit modernen Programmiermethoden erstellt wurde und am Ende gerade diese Links vom Robot noch nicht einmal erkannt werden können. Mit den klassischen HTML-Links ist man immer auf der sicheren Seite. Links in JavaScript werden ebenso wie einfache Links in Flash mittlerweile zumindest von Google recht gut erkannt. Das hängt aber im Detail von der Art der Programmierung ab, und daher sollte man sich nicht allzu sehr und vor allem nicht blind darauf verlassen.

Einen recht guten Überblick über die eigenen Verlinkungen erhält man mit dem kostenlosen Tool Xenu, das wir bereits in der ersten Ausgabe von Website Boosting vorgestellt haben (http://home.snafu.de/tilman/xenulink.html). Eigentlich dient es zum Aufspüren von broken (toten) Links, gibt aber praktisch als Abfallprodukt eine komplette Übersicht, wie viele Links von jeder Seite abgehen und wie viele Links auf jede Seite zeigen sowie die Hierarchiestufe (Level) der einzelnen Seite. Letztere sagt aus, mit wie vielen Klicks von der Startseite aus diese Seite im Minimum zu erreichen ist.

Sorgen Sie also dafür, dass auf wichtige Seiten genügend interne Links zeigen. Dies hilft den Suchmaschinen bei der rechnerischen Beurteilung, welche Teile einer Website „wichtiger“ sind.

Findet Xenu auf der eigenen Domain auch broken Links, sollten diese in jedem Fall entfernt bzw. korrigiert werden. Denn jeder Link überträgt einen gewissen Wert an die verlinkte Seite. Im Falle von nicht existierenden Seiten geht dieser unter Fachleuten „Linkjuice“ genannte Wert verloren!

Beim Anlegen von Verzeichnissen sollte man darauf achten, dass die Verzeichnisnamen sprechend sind, also möglichst eben auch relevante Suchbegriffe enthalten. Eine zu hohe Verzeichnisdichte, d. h. eine zu verschachtelte Struktur sollte man ebenfalls vermeiden. Viele Suchmaschinen dringen beim Indexieren generell nicht so tief in eine Website ein. Außnahmen werden dabei allerdings aufgrund verschiedener Faktoren bei größeren Websites gemacht.

Das Alter der Domain

Unter Experten gilt auch das Alter einer Domain als nicht unwichtiger Rankingfaktor. Erste Vermutungen darüber gab es, als in einer Patentschrift von Google aufgetaucht ist, dass das Alter ein Signal für die Einschätzung der Vertrauenswürdigkeit sein kann. In der Praxis konnte auch tatsächlich beobachtet werden, dass ältere Domains einen höheren Status genießen und bestimmte Dinge noch toleriert werden, die bei neu aufgesetzten Domains längst zu einem Deranking (Herabstufung) führen. Diese Beobachtung nachzuvollziehen ist nicht immer ganz einfach, denn durch einen gewissen Neuheitsfaktor (Freshness) ranken neue Webseiten oftmals für kurze Zeit recht gut, fallen aber danach spürbar zurück. Man sollte es sich also sehr gut überlegen, ob man für ein neues Projekt wirklich eine neue Domain aufbaut oder nicht doch besser eine ältere bevorzugt. Dabei zählt der Zeitpunkt, ab wann die Suchmaschinen Kenntnis vom Inhalt einer Domain erhalten – nicht, wann sie registiert wurde.

Der Domain-Name

In letzter Zeit kann beobachtet werden, dass vor allem Google Domainnamen im Ranking stark bevorzugt, die das gesuchte Keyword im Namen enthalten. Einige Suchmaschinenoptimierer berichten hinter vorgehaltener Hand, dass es momentan oftmals genügt, eine keyword.net, .org oder .com zu registrieren, sofern die entsprechende .de-Domain bereits vergeben ist, sie mit onpage-optimierten Inhalten zu versehen und einen oder zwei gute externe Links darauf zu setzen. In einigen Fällen, die Website Boosting vorliegen, hat dies tatsächlich für ein relativ stabiles Ranking auf Platz 1 genügt. Es ist allerdings zu vermuten, dass sich dieser Effekt bald wieder abschwächen wird, denn hier wurde ganz offensichtlich eine Schraube im Algorithmus etwas zu weit gedreht.

Die richtigen Keywords – das A und O

In den letzten beiden Ausgaben von Website Boosting gab es schon mehrere detaillierte Beiträge, mit welchen Tools man die richtigen Keywords finden kann. Die größte Hürde liegt allerdings erfahrungsgemäß für Unternehmen darin, ihre Betriebsbrille abzusetzen und den Versuch zu starten, mit dem Sprachschatz der Kunden zu denken. Der kennt nämlich auch imGeschäftskundenbereich (B2B) nicht immer alle Fachbegriffe oder Produkt- und Markenbezeichnungen, die den Herstellern natürlich sprachlich in Fleisch und Blut übergegangen sind. Laut Insights for Search (www.google.com/insights/search) sucht beispielsweise fast niemand nach einer „Kommunikationsagentur“, wie sich die früher als Werbeagentur bezeichneten Unternehmen heute gerne auf ihren Webseiten nennen. In Teil 1 dieser SEO-Basic-Reihe wurde gezeigt, wo und wie man auf einer Seite das Hauptkeyword am besten platziert. Mit der Verwendung des aus Sicht der meisten Suchenden falschen Begriffes „Kommunikationsagentur“ verschenkt man unter Umständen enormes Umsatzpotenzial, weil man unter dem hauptsächlich benutzten und daher wichtigen Wort „Werbeagentur“ nicht oder nur schlecht rankt. Diesem Umstand versuchen viele Agenturen zu begegnen, in dem sie verzweifelt ausprobieren, sich gegenseitig mit ihren Klickgeboten im bezahlten Bereich der Treffer zu überbieten. Hier kostet jeder Klick bares Geld. Wäre man traditionell besser die Werbeagentur geblieben, hätte dies wahrscheinlich weniger negative Auswirkungen auf das eigene Werbebudget.

Einige weitere Beispiele: Für einen Handwerksbetrieb mag es durchaus besser sein, für Begriffe wie „Trennwände einbauen“ (in Verbindung mit einer Stadt) zu ranken, als für den Fachbegriff „Trockenbau“. Wer hilft bei einer verstopften Toilette oder wer repariert eine defekte Dachrinne? Unbedarfte Kunden suchen nicht selten mit einer Problembeschreibung, und wenn sie die korrekten Bezeichnungen nicht kennen, müssen sie das sogar. Solche Dinge gilt es, bereits im Vorfeld zu analysieren und ein vernünftiges Set an wichtigen Keywords festzulegen. Neben den vielen Tools, die bei der Keywordsuche und -analyse unterstützen, wird leider oft ein wichtiger Faktor übersehen: Einfach mal die Menschen fragen! Jeder aus dem eigenen Umfeld taugt, wenn er nicht aus derselben Branche ist. Oder warum nicht auch mal die Kunden fragen? Und wenn das nicht geht, mit den eigenen Vertriebsmitarbeitern sprechen. Die wissen in der Regel sehr viel mehr über die Sprachwelt der Kunden als die Online-Abteilung.

„Die Grenzen meiner Sprache sind die Grenzen meiner Welt.“ Ludwig Wittgenstein

Wie oft nach einem Keyword gesucht wird, spielt übrigens bei der Auswahl eine eher untergeordnete Rolle. Ein hohes Suchvolumen ist keinerlei Garant für die Richtigkeit eines Keywords. „Kleiderschrank“ wird zum Beispiel laut Googles Keyword Tool pro Monat etwa 2,2 Mio. Mal gesucht. Wie viele kauforientierte Suchen wirklich dahinterstecken, kann man daraus natürlich nicht ableiten. Umgekehrt wird nach der korrekten Bezeichnung „Hefter“ pro Monat etwa 90.000 Mal gesucht, nach dem umgangssprachlich gebräuchlicheren „Tacker“ jedoch über 200.000 Mal. Nach „Leitz Tacker“ werden sogar nur 590 Suchanfragen ausgewiesen. Aber vielleicht ist das genau der richtige Suchbegriff bzw. einer, der sehr viel mehr Conversions (in diesem Fall Verkäufe) generiert als ein eher allgemeiner Begriff? Auch regionale Sprachunterschiede sollte man nicht außer Acht lassen, sofern man mit den Keywords davon betroffen sein könnte. In der Schweiz bevorzugt man z. B. das Wort „Ferien“ statt „Urlaub“ oder „Velo“ statt „Fahrrad“. In Teilen Bayerns und Österreich wird die Aprikose als Marille bezeichnet. Und je nach Region werden unter den Schwarzbeeren die normalen Brombeeren, Heidelbeeren oder Blaubeeren verstanden. Wäre wohl die korrekte Bezeichnung „Zoogeschäft“, „Zoofachgeschäft“ oder „Zoohandlung“ besser als „Tiergeschäft“?

„Der Unterschied zwischen dem richtigen Wort und dem beinahe richtigen ist derselbe wie zwischen einem Blitz und einem Glühwürmchen.“ Mark Twain

Die wirklich richtigen Keywords zu finden ist also zu Beginn eher Brainware. Denken Sie also zuerst möglichst gemeinsam im Team kritisch nach. Und wenn jemand nach einem Vorschlag ruft „Ach komm, so sucht doch kein Mensch!“, dann ist man auf dem richtigen Weg. Mit den nur beinahe richtigen Keywords sind alle nachfolgenden SEO-Aktivitäten nur zu einem Zweck gut: Man bekommt unter Umständen eine Menge Traffic, aber er konvertiert nicht. Das Telefon bleibt stumm, die Mailbox leer. Leider kann einem niemand vorher sagen, welche Keywords tatsächlich die richtigen sind. Dazu gehört viel Erfahrung, natürlich auch die Nutzung von Tools zur Beurteilung, aber vor allem aber eben auch viel Geduld beim Brainstorming. Wer hier durch Hudeleien und schlampige Recherche Fehler macht, wird sie später bitter bereuen. Das beste Gegenrezept ist: Nachdenken, nachdenken, nachdenken.

Was eine Sitemap bringt

Als Sitemap bezeichnet man eine Übersichtsseite, die möglichst optisch eingerückt strukturiert darstellt, wie eine Website aufgebaut ist. Durch Links kann man von dort aus in der Regel einzelne Seiten direkt anspringen. Eine Sitemap kann aber auch in elektronisch weiterverarbeitbarer Form (im sogenannten XML-Format) für Suchmaschinen bereitgestellt werden. Die meisten Content-Management-Systeme oder Shopsysteme erzeugen eine solche maschinenlesbare Sitemap automatisch. Wichtig ist, dass man die Adresse kennt, unter der das System diese Datei auf dem eigenen Webserver ablegt. Diese Adresse kann man dann bei den wichtigsten Suchmaschinen anmelden, und die Robots verarbeiten sie ab da automatisch. Bei Google macht man das über die Webmastertools (www.google.com/webmasters/tools), bei Yahoo über den Siteexplorer (siteexplorer.search.yahoo.com/submit) und bei Bing über die Toolbox für Webmaster (www.bing.com/toolbox/webmasters).

Steht keine automatisiert erzeugte Sitemap zur Verfügung, kann man sich mit mit dem oben erwähnten Tool Xenu oder auch mit mehreren kostenlosen Online-Tools eine solche erstellen lassen; www.xml-sitemaps.com bietet z. B. einen solchen Generator an, der gleich mehrere Formate erzeugt, u. a. eine HTML-Version (die auch gut zur Visualisierung des eigenen Siteaufbaus dienen kann) und die erwähnte XML-Version. Letztere sogar komprimiert (spart Übertragungszeit) und unkomprimiert. Man kopiert einfach am besten die unkomprimierte (un-compressed) Version der XML-Sitemap (sitemap.xml) und lädt sie auf den eigenen Webserver, sodass sie unter www.meine-domain.de/sitemap.xml erreich- bzw. aufrufbar ist (einfach per Browser testen). Anschließend meldet man diese Adresse wie oben beschrieben bei Suchmaschinen an. Fügt man neue Seiten hinzu, muss allerdings eine neue Sitemap erzeugt und hochgeladen werden. Eine erneute Anmeldung bei den Suchmaschinen ist nicht nötig, weil die URL (die Adresse) ja gleich bleibt.

Das Hochladen und Anmelden einer Sitemap hilft wie erwähnt den Suchmaschinen-Robots (nur) beim schnelleren Auffinden und Indexieren aller Seiten. Eine Rankingverbesserung darf man sich davon aber nicht erhoffen.

Lesen Sie in der nächsten Ausgabe von Website Boosting im Teil 3, wie Sie mit vielleicht gut gemeinten Aktivitäten das Ranking Ihrer Website ungewollt ins Aus manövrieren können.