SEO-Grundlagen 2013

Martin Mißfeldt
Martin Mißfeldt

Der bildende Künstler Martin Mißfeldt beschäftigt sich seit 2007 intensiv mit dem Thema Bilder-Seo. Er hat auf zahlreichen Seo-Konferenzen Vorträge gehalten und veröffentlicht regelmäßig im tagSeoBlog. Daneben betreibt er eine Reihe von Nischenseiten zum Thema Sehen und Optik, erstellt Infografiken und malt Bilder.

Mehr von diesem AutorArtikel als PDF laden

Suchmaschinenoptimierung wird immer komplexer und die Fachartikel immer differenzierter. Wer in das Thema neu einsteigt, versteht oft nur Bahnhof. Die allgemeinen Grundlagen sind zwar in zahlreichen Artikeln beschrieben, die jedoch im Laufe der Zeit aufgrund zahlreicher Updates meist überholt sind. Martin Mißfeldt bietet einen gut verständlichen Einstieg in das Thema und zeigt auch gleichzeitig auf, wohin der Zug bei Google & Co. geht.

Der Begriff „Suchmaschinenoptimierung“ (kurz SEO vom engl. „search engine optimization") war schon immer irreführend. Denn mitnichten geht es darum, Suchmaschinen zu verbessern. Stattdessen müsste es „Websiteoptimierung für Suchmaschinenrankings“ heißen. Das Ziel lautet dabei: Mehr Besucher über Suchmaschinen gewinnen. Aber auch wenn es nicht den Kern der Bestrebungen trifft: Mangels Alternative wird der Begriff „Suchmaschinenoptimierung“ auch in diesem Artikel benutzt.

Einleitung: Warum Suchmaschinenoptimierung?

Eine Website ist aus betriebswirtschaftlicher Sicht ein Kostenfaktor. Sowohl Erstellungskosten als auch laufende Kosten müssen sich rentieren. Damit das überprüfbar ist, braucht es ein klares Ziel. Was will man mit der Website erreichen? Dieses Ziel sollte während der Erstellungsphase definiert worden sein – aber es ist durchaus sinnvoll, die Erwartungen von Zeit zu Zeit zu überprüfen und neue Ziele zu stecken. Fast immer gilt: Eine Website braucht Besucher, um die Ziele zu erreichen.

Eine der effektivsten Besucherquellen ist die Suchmaschine Google. Das liegt zum einen daran, dass Google mit über 90 Prozent Marktanteil den deutschen Suchmarkt dominiert. Der zweite Grund ist aber ebenso wichtig: Für viele Menschen ist Google das Tor zum Internet. Man geht eben über Google, um eine Website zu öffnen. Das Userverhalten ist dabei sehr berechenbar: Je weiter vorne eine Website gelistet ist, um so mehr Besucher gelangen auf die Seite. Daher ist es für den Erfolg einer Website von großer Bedeutung, bei Google möglichst weit vorne gelistet zu sein. Und genau hier kommt das Thema Suchmaschinenoptimierung ins Spiel.

Was Suchmaschinenoptimierung nicht (mehr) ist

Bei vielen Menschen hat sich ein schmutziges Bild von Suchmaschinenoptimierung im Kopf festgesetzt. Demnach versucht ein SEO, die Rankings mit selbst gesetzten Links und anderen spamigen Methoden zu manipulieren. Für viele ist zwischen SEO und Spam keine Grenze zu erkennen. Das schreckt natürlich ab. Und in der Tat genügt ein Blick in den täglichen E-Mail-Spam, um diesen Verdacht zu erhärten. Nach wie vor rücken einige aufdringliche Pseudo-SEOs mit unseriösen Anfragen eine ganze Branche in ein schiefes Licht. Aber zum Glück wird Google immer intelligenter. Schlechte SEO-Maßnahmen wirken heutzutage nicht mehr. Mit zahlreichen Updates hat Google seinen Algorithmus so verfeinert, dass die halbseidenen Tricks von anno dazumal nicht mehr funktionieren.

Google-Updates: Panda und Pinguin

Die beiden wirkungsvollsten Updates sind das Panda- und das Pinguin-Update. Grob vereinfacht gesagt: Das Panda-Update überprüft die Qualität der Seiteninhalte und das Pinguin-Update die Qualität der Backlinks. Vor diesen beiden Updates war es im Prinzip möglich, schlechte Inhalte durch massenhafte, auch schlechte Backlinks in den Suchergebnissen weit vorne ranken zu lassen. Heute funktioniert das nicht mehr. Und damit gibt Google auch klar die Richtung vor: Um heute in der Google-Suche erfolgreich zu sein, braucht es gute Inhalte und gute Backlinks. Und genau hier fängt das Thema „Suchmaschinenoptimierung 2013“ an …

Was will Google?

Für das Verständnis des Folgenden ist es wichtig zu klären, was Google überhaupt möchte. Google sagt dazu: Man möchte bei einer Suchanfrage das für die User beste Ergebnis ausliefern. In dem Satz stecken drei zentrale Punkte. Erstens: Google analysiert Inhalte auf ihre Relevanz für bestimmte Keywords. Eine Website kann noch so schön und gut sein – wenn das Keyword nicht darin auftaucht, wird die Seite nicht vorne ranken. Zweitens: Es geht um Zufriedenheit. Dafür analysiert Google das Userverhalten. Wie weit diese Analyse geht, ist umstritten. Mit Sicherheit kann Google messen, wenn ein Besucher nach einem Klick auf ein Ergebnis wieder in die Suche zurückkehrt und das nächste Ergebnis anklickt – kein gutes Zeichen. Ob Google auch Daten über das Surfverhalten der User aus Analytics oder dem eigenen Browser Chrome auswertet, ist unklar. Der dritte Punkt ist der wichtigste: Google analysiert das Massenverhalten. Es ist nicht relevant, wie sich ein oder zehn oder fünfzig User verhalten. Wichtig ist der durchschnittliche Wert aller Signale. Google weiß, dass der Erfolg seiner Suche davon abhängt, dass die Menschen (als Plural) mit den Ergebnissen zufrieden sind.

Gute Inhalte

Was sind gute Inhalte? Diese zentrale Frage lässt sich natürlich nicht beantworten, da sie von jedem anders beurteilt wird. Ein Akademiker beurteilt einen Artikel anders als Schulabbrecher, eine Rentnerin anders als ihr Enkel und so weiter. Wichtig ist jedoch folgende Aussage: Was gut ist, beurteilt nicht der Website-Betreiber, also zum Beispiel der Chef einer Firma. Die Frage war schon falsch gestellt. Korrekterweise müsste sie lauten: Was sind für Google gute Inhalte? Und hier lassen sich Muster erkennen und analysieren, die verallgemeinerbar sind. Was Google für die besten Inhalte hält, liegt ja offen zutage: in den Suchergebnissen.

WDF*IDF

Die Zauberformel lautet WDF*IDF (wiederentdeckt vom großen Karl Kratz). Ohne darauf im Einzelnen eingehen zu wollen, lässt sich feststellen, dass diese Formal im Prinzip genau das errechnet, was Google für einen guten Inhalt hält. Man könnte hergehen und, sagen wir mal, die ersten 30 Ergebnisse zu einem Keyword genau durchlesen. Am Ende müsste man dann die Quintessenz herausfiltern, wobei man bedenken muss, dass die Inhalte des ersten Ergebnisses höher zu bewerten sind als die von Resultat 30. Wenn man das gründlich macht, erkennt man, welche Begriffe im Zusammenhang mit diesem Keyword häufig auftauchen, welche Überschriften relevant sind, welche Fragen formuliert werden und so weiter. Das Verfahren ist extrem zeitaufwendig und im Rahmen einer Kosten-Nutzen-Analyse meist nicht zu rechtfertigen. Aber inzwischen haben einige Toolanbieter das Prinzip durchschaut und bieten einen Service an, der das automatisiert übernimmt. Schön übersichtlich erhält man so einen Überblick über die Begriffe und Überschriften, die für dieses Keyword – aus Googles Sicht – wichtig sind.

Kritik an WDF*IDF

So praktisch die zuvor genannten Tools auch sind, sie haben drei entscheidende Schwächen: Zum einen muss man die ermittelten Begriffe so niederschreiben, dass sie einen sinnvollen Zusammenhang ergeben und für die Zielgruppe gut zu rezipieren sind. Zum Zweiten würde man, wenn man diese Methode konsequent umsetzt, nicht über das hinausgehen können, was andere anbieten. Es ist daher sehr wichtig, jedem Inhalt auch eine „eigene Note“ hinzuzufügen, etwas, das individuell ist und eine zusätzliche Relevanz schafft.

Zum Dritten arbeitet die WDF*IDF-Analyse textorientiert. Der Einsatz von Medien wie Bildern, Videos, PDFs und so weiter wird nicht analysiert. Aber der Einsatz von Medien spielt für die Qualität einer Website eine zunehmende Rolle. Es ist also sinnvoll, über die WDF*IDF-Analyse hinaus sich die Top-Ergebnisse bei Google anzuschauen und zu verstehen, wie viele Medien mindestens erforderlich sind, um mit den ersten Ergebnissen konkurrieren zu können.

Bilder, Videos etc.

Immer noch vergessen viele, dass man Inhalte nicht nur über Text vermitteln kann. Bilder entscheiden nicht nur über den ersten Eindruck, sie lockern auch das Leseverhalten auf. Bei Videos oder Slide-Shows (eingebettete PDF-Präsentationen) ist es genauso. Je lebendiger und abwechslungsreicher eine Seite, um so mehr wird das Lesen zum Vergnügen. Das steigert die Verweildauer und ist somit ein Rankingfaktor. Der überlegte Einsatz von Medien kann das Userverhalten erheblich beeinflussen. 

Backlinks

Ein Backlink ist eine Empfehlung. Der Erfolg von Google ist eng an dieses Prinzip der Empfehlung geknüpft. Nun kann Google einem Backlink per se nicht ansehen, ob er tatsächlich als Empfehlung eines Menschen gesetzt wurde (sog. „natürlicher Link“) oder ob es sich um einen von einem SEO zum Zwecke der Ranking-Manipulation gesetzten Link handelt. Daher versucht Google, Muster in der Backlink-Struktur einer Website zu erkennen. Grob vereinfacht: Je mehr natürliche Links Google erkennt, um so mehr „unnatürlich“ wirkende Links werden geduldet. Bei zu vielen unnatürlich wirkenden Links wird die Seite seit dem Pinguin-Update abgestraft (sog. Penalty).

Es ist also heute wichtiger denn je, für möglichst viele natürliche Backlinks zu sorgen. Das Thema Backlink-Aufbau hat sich denn auch nach dem Pinguin-Update grundlegend geändert. Statt auf Masse zielen viele Maßnahmen vor allem auf Klasse.

Linkbaiting

Ein Linkbait ist das „Angeln nach Links“. Aufgrund des zuvor Gesagten versuchen immer mehr SEOs, Inhalte so aufzubereiten, dass sie sich zum einen in sozialen Netzwerken gut teilen lassen und zum anderen als lohnendes Linkziel taugen. Es gibt viele Möglichkeiten, die Verlinkung eines Beitrags schmackhaft zu machen. In diesem Zusammenhang vermischen sich Content-Erstellung und Linkbuilding: Im Grunde sollte jede Seite einen so interessanten Inhalt haben, dass sie als Linkziel attraktiv ist.

In diesem Zusammenhang seien die Presseabteilungen vieler Firmen erwähnt. Presseartikel eignen sich hervorragend als „natürlicher Linkbait“. Pressemitteilungen sollten immer als Blogartikel oder eigenständige Webseite abgelegt sein, die dann in dem PDF oder was auch immer kommuniziert wird, am Ende genannt wird, denn nicht selten verlinken Berichterstatter genau diese URL als Quelle.

Social Media

Social-Media-Signale wie Teilen („Sharen“) oder „Liken“ sind im Grunde auch Empfehlungen, die wie ein Link analysiert werden können. Es ist umstritten, welchen Einfluss die einzelnen Social Signals haben. Ohne Frage wird Google irgendwann die Plus-eins-Empfehlungen nutzen wollen, bislang ist diese Möglichkeit aber vermutlich in der breiten Öffentlichkeit noch nicht so verankert, dass Google daraus relevante Daten ableiten könnte. Mit Facebook oder Twitter hat Google keine (öffentlich bekannten) Deals. Es ist unwahrscheinlich, dass Google seine Suchergebnisse auf Daten begründet, die man nicht verifizieren kann. Vermutlich spielen Retweets und Facebook-Likes eine geringe Rolle für das Ranking. Weitaus größer dürfte jedoch der Effekt sein, den das daraus resultierende Nutzerverhalten für die Seite hat.

Accessibility – den Crawler nicht vergessen

Wenn man über SEO-Maßnahmen redet, darf man das Stichwort „Accessibility“ nicht vergessen. Dabei geht es darum, die Inhalte einer Website überhaupt für den Googlebot zugänglich zu machen und das Crawlverhalten des Bots zu optimieren. Dabei geht es um sog. Onpage-Maßnahmen, die man als Website-Betreiber direkt beeinflussen kann: saubere Seitenstruktur, korrekter Quellcode, robots.txt, Sitemaps, fehlende Meta-Descriptions, fehlende Alttexte von Bildern und so weiter. Auch hierfür gibt es inzwischen eine Reihe von Tools, die wertvolle Dienste leisten, um den Prozess effektiver zu machen.

Die lokalisierte Suche

Google ist dazu übergegangen, Suchanfragen zu lokalisieren und entsprechend angepasste Ergebnisse anzuzeigen. Das stellt die Suchmaschinenoptimierung vor ein grundlegendes Problem: Man muss überlegen, ob und für welche Keywords man auf lokale Ergebnisse optimieren möchte.

Die personalisierte Suche

Ebenso komplex ist das Thema „personalisierte Suchergebnisse“. Basierend auf den Daten von Google+, einem übergeordneten Dienst, in den Google mittlerweile fast alle Dienste und Services integriert hat, versucht der Suchalgorithmus, das für den konkreten User optimale Ergebnis anzuzeigen. Das stellt die Suchmaschinenoptimierung vor ein grundlegendes Problem: Das Ganze ist nicht mehr kontrollierbar. Im Grunde gibt es hierfür nur eine Lösung: Einen starken Google+-Account zu haben, damit die eigenen Seiten bei möglichst vielen Freunden und Followern angezeigt werden.

SEO-Konvergenz

Das Beschriebene zeigt: Suchmaschinenoptimierung lässt sich längst nicht mehr auf eine Teildisziplin reduzieren. Um ein gutes Ranking bei Google zu erreichen, ist ein Zusammenspiel zahlreicher Maßnahmen wichtig. Onpage-Optimierung, Content-Optimierung, Medien-Optimierung, eine pfiffige Linkbuilding-Strategie, aber auch die gezielte Nutzung von Social Media sind nur im Zusammenwirken ein Garant für nachhaltige Suchmaschinenoptimierung.

Als Website-Betreiber muss man sich fragen: Kaufe ich diese Kompetenz ein – oder miete ich einen externen Experten? In jedem Fall braucht man auf der Entscheidungsebene einen SEO-Allrounder, der die Zusammenhänge kennt. Die Spezialisierung der SEO-Agenturen ist sicherlich sinnvoll, aber man muss genau wissen, welchen Spezialisten man für welche Maßnahme braucht. Als Entscheider sollte man daher einen guten Draht zu einem vertrauenswürdigen SEO-Allrounder aufbauen. Als SEO sollte man sich überlegen, ob man als Allrounder im Consulting aktiv ist oder ob man als Spezialist einer SEO-Teildisziplin im operativen Tagesgeschäft mitmischt.