SEO-Tools richtig nutzen – Teil 1: Basics

Mario Fischer
Mario Fischer

Mario Fischer ist Herausgeber und Chefredakteur der Website Boosting und seit der ersten Stunde des Webs von Optimierungsmöglichkeiten fasziniert. Er berät namhafte Unternehmen aller Größen und Branchen und lehrt im neu gegründeten Studiengang E-Commerce an der Hochschule für angewandte Wissenschaften in Würzburg.

Mehr von diesem AutorArtikel als PDF laden
Martin Günther
Martin Günther

Martin Günther hat nach seiner Ausbildung zum Fachinformatiker mit dem Schwerpunkt Entwicklung an der FH Würzburg / Schweinfurt Wirtschaftsinformatik mit dem Studienschwerpunkt E-Commerce studiert. Bereits während seines Studiums arbeitete er im Bereich Online-Marketing und Web-Entwicklung unter anderem für unterschiedliche Kunden. Nach seinem Studium arbeitet er bei der tms development GmbH in Nürnberg als Website-Boosting Engineer in der Beratung und Entwicklung und begleitet Online-Marketing Projekte großer und mittelständischer Unternehmen.

Mehr von diesem AutorArtikel als PDF laden

Wer heute ernsthaft und wettbewerbsfähig beim Suchmaschinenranking im Web mitspielen möchte, kommt um die Nutzung professioneller SEO-Tools nicht herum. Trotzdem gibt es noch immer zu viele Online-Marketers, die zwar einen Zugang zu einem solchen Tool haben, es aber viel zu selten und nur sporadisch nutzen. Dazu kommt noch die breite Masse der Webverantwortlichen, die sich diesem Thema der vermeintlichen Komplexität wegen noch nicht angenähert haben. Website Boosting zeigt daher in einem Zweiteiler, wie Sie solche Tools effektiv einsetzen, um mehr Transparenz über die eigene Website und die der Mitbewerber zu bekommen und ableiten zu können, was zu tun ist, um noch besser zu werden. Teil eins erklärt Basics und wie man typische Fragestellungen beantwortet. In der nächsten Ausgabe gehen wir dann einen Schritt tiefer und erläutern die Profifunktionen.  

Wer ernsthaft in der SEO-Branche arbeitet, hat sich in der Regel bereits ein oder mehrere Tools ausgesucht, die ihn bei der täglichen Arbeit unterstützen. Experten haben sicher auch keine Verständnisprobleme, was diese Tools da eigentlich visualisieren und wie man die Ergebnisse interpretiert. In den Online-Marketing-Abteilungen sind die Mitarbeiter aber oft zwangsweise mit sehr vielen anderen Aufgaben betraut, sodass (zu) wenig Zeit bleibt, sich intensiver mit einem SEO-Tool auseinanderzusetzen. Und es soll dem Vernehmen nach auch nicht wenige gerade mittelständische Betriebe geben, die noch immer in unregelmäßigen Abständen das aktuelle Ranking für einzelne Keywords von Werkstudenten aus Google, Bing und Yahoo! in Exceltabellen übertragen lassen, um später daraus Berichte für den Chef machen zu können.

Für genau diese Leser ist dieser erste Teil unserer Toolreihe gedacht. Vielleicht kann er einen Anreiz geben, sich gerade jetzt etwas mehr mit dem Thema zu beschäftigen und mehr Transparenz zu schaffen, schnellere und umfassendere Ergebnisse zu erstellen und wichtige Steuerungsinformationen für den eigenen Erfolg zu generieren. Dazu haben wir uns drei der bekanntesten Universal-SEO-Tools und je ein Tool für die reine Linkanalyse und für die Analyse der internen Domainstruktur vorgenommen:

  • Searchmetrics Essentials (dort gibt es auch noch eine umfangreichere Suite)
  • SEOlytics
  • Sistrix-Toolbox
  • LRT – LinkResearchTools
  • das brandneue Tool OnPage.org  

Natürlich hat jedes Tool seine ganz speziellen Stärken und Funktionen. Es sind auch nicht alle Tools vom Einsatzgebiet her direkt miteinander vergleichbar. Während Searchmetrics, SEOlytivs und Sistrix eher viele Kennzahlen für einen Überblick und auch anschließende Tiefenanalysen bieten, liefern die LinkResearchTools, wie der Name richtig vermuten lässt, „nur“ Ergebnisse die Linkstrukturen betreffend, dies aber in aller Ausführlichkeit und mit vielen nützlichen Facetten. Da bekanntlich Backlinks für das Ranking extrem wichtig sind, darf dieses Tool natürlich nicht fehlen. Eine wiederum völlig andere Zielsetzung hat OnPage.org. Hier werden fast ausschließlich Informationen über die Struktur einer Domain geliefert, und das in einer Ausführlichkeit, wie man es sich als Sitebetreiber nur wünschen kann. Alles in allem deckt die Zusammenstellung der Tools also im Prinzip jede wichtige Fragestellung einer Online-Abteilung, die sich ernsthaft mit SEO auseinandersetzen möchte und muss, ab. Entsprechend der jeweiligen Ausrichtung lassen sich natürlich auch nicht alle Fragen mit jedem Tool beantworten – zumindest nicht in vergleichbarer Tiefe.
Und noch ein wichtiger Punkt muss hervorgehoben werden: Auch wenn Sie eine externe Agentur beauftragt haben, ist es empfehlenswert, sich kontinuierlich einen – neutralen – Überblick zu verschaffen, was an der Front mit Ihrer Domain tatsächlich passiert. Dabei geht es nicht darum, den Agenturen ständig auf die Füße zu treten, weil einmal ein Rankinggraph kurzzeitig in die falsche Richtung zeigt. Es geht um den Aufbau eines eigenen Grundverständnisses, was da eigentlich gemacht wurde und wie es wirkt – und ob es wirklich gut und seinen Preis wert ist.   

Frage 1: Erkennen von Problemen bei Google-Updates

Die drei Toolanbieter Searchmetrics, SEOlytics und Sistrix verwenden eigene Indizes, um die sog. Sichtbarkeit einer Domain in Suchmaschinen zu visualisieren. Dazu werden aus einem Keywordpool regelmäßig die Domains ermittelt, die für diese Keywords bei den Suchmaschinen ranken. Aus diesen Ergebnissen, verbunden mit der Suchhäufigkeit der einzelnen Keywords, wird dann der jeweilige Sichtbarkeitswert ermittelt. Da Rankings zunächst nur für die Keywords festgestellt werden, die im Pool des Anbieters gesammelt wurden, darf man die „Sichtbarkeit“ auch nur darauf beziehen. Hat ein Sitebetreiber z. B. ganz spezielle und ggf. für ihn sehr wertvolle Keywords, die in der Regel dann auch häufig ein sehr geringes Suchvolumen haben, sind diese in einer solchen Überblickswertung natürlich unterbewertet oder gar nicht in der Berechnung enthalten. Hierfür gäbe es andere Möglichkeiten einer individuellen Indexbildung, auf die aber später noch eingegangen wird. Man muss sich beim Interpretieren der Kennzahlen im Klaren darüber sein, dass eine hohe Sichtbarkeit nicht unbedingt mit hohem Umsatz oder gar Gewinn einhergeht. Hier geht es wirklich nur darum, wie häufig und wie gut eine Domain insgesamt gesehen in den Suchergebnissen auftaucht. Beim Vergleich mit den Mitbewerbern kann man allerdings sichergehen, dass bei der Bewertung der gleiche „Keyword“-Maßstab angelegt wurde. Da man die Traffic- und Umsatzzahlen der Mitbewerber in der Regel nicht kennt, lässt sich über solche Sichtbarkeitskennzahlen annäherungsweise ganz gut ableiten, ob es bei diesem im Gegensatz zu einem selbst eher nach oben oder nach unten geht. Dazu aber später mehr bei Frage 4.
Die genaue Erkennung, ob und ggf. mit welchem Update von Google man Rankings verloren hat, ist essenziell, um die richtigen Gegenmaßnahmen zu ergreifen. Insofern lohnen sowohl die Analyse als auch die regelmäßige Kontrolle mit einem professionellen Tool. 
Obwohl die oft auch auf Suchmaschinen konzentrierte Branche gerade in letzter Zeit vor neuen Updates von Google geradezu erzittert, haben die Toolanbieter bisher darauf verzichtet, die wichtigen Datumsangaben dieser Updates mit in ihre Visualisierungen einzugliedern. Daher muss man entweder alle Updates beim Betrachten der Rankingverläufe auswendig im Kopf haben oder sich selbst ein Blatt Papier erstellen, um Anstiege oder Abstürze entsprechend interpretieren zu können. Überhaupt wäre es aus Sicht der Anwender sicher wünschenswert, auch selbst zu einzelnen Kalenderwochen kommentierte Kurztexte hinterlegen zu können, die natürlich nur für die eigene Domain und für andere unsichtbar anzeigbar sind. Arbeitet man beispielsweise punktuell aufwendiger an der eigenen Backlinkstruktur oder bekommt durch einen größeren Boost im Web einen Aufmerksamkeits- und Linkzuwachs, wäre eine Art zeitlicher Markierbarkeit für die Nachverfolgung auf die späteren Rankingauswirkungen auf längere Sicht sicher hilfreich. Bisher muss man hier parallel einen eigenen Kalender führen und die Kurvenveränderungen jeweils im Geist neu beschriften, um sie besser interpretieren zu können. Im Vergleich zu den vielen Terra- oder gar Petabytes, die die Anbieter auf ihren Serverfarmen speichern, würden die wenigen Kilobytes für eigene Ereignistexte der Kunden sicher nicht ins Gewicht fallen.

Searchmetrics Essentials

Den Sichtbarkeitsverlauf erhält man bei den Searchmetrics Essentials direkt zusammen mit anderen Kennzahlen nach der Eingabe eines Domainnamens. Der Toolanbieter hat nach eigenen Angaben über 100 Mio. Keywords gespeichert, die für die Berechnung der Sichtbarkeit (Visibility) im organischen (unbezahlten) Ranking und auch im bezahlten Listing (z. B. AdWords) herangezogen werden. 

Die zur Analyse ausgewählte Domain für Frage 1 zeigt im Searchmetrics-Graphen drei Einbrüche bei der Visibility (siehe Abbildung 1). Der erste Rankingverlust zeigt sich um den 07. August 2011 und genau in dieser Woche kam tatsächlich das erste Panda-Update nach Deutschland (Panda 2.4). Mit Panda versucht Google hauptsächlich, Seiten mit dünnen Inhalten, kopierten Texten und wenig Nutzen für die Suchenden wegzufiltern. Offenbar hat es der Domainbetreiber nicht geschafft, hierauf rechtzeitig zu reagieren, denn etwa sieben Monate später rutschte das Ranking in Kalenderwoche (KW) 12 durch Panda 3.4 dann noch weiter ab. Kurz darauf, in Kalenderwoche 17, gab es dann den endgültigen Absturz in die Bedeutungslosigkeit durch das Penguin-Update 1.0 am 24.04.2012. Man kann darüber spekulieren, ob der Betreiber nach der ersten Panda-Strafe die falschen Maßnahmen eingeleitet hat, nämlich deutlichen Aufbau von Backlinks, dessen unsaubere Umsetzung dann den Ausschlag für die Penguin-Strafe gab – die ja vornehmlich SEO-Überoptimierung zum Ziel hatte und u. a. sehr empfindlich auf unnatürlich wirkende, zu viele gleiche Keywordtexte auf Links reagiert. Da die Sichtbarkeitswerte auch auf Subdomain- oder Verzeichnisebene angezeigt werden können, lassen sich Strafen für einzelne Keywords oder Verzeichnisse leichter erkennen. Hubpages.com wurde ja ein recht bekanntes Opfer des Panda-Updates von Google. Dort hat man dann einfach alle Verzeichnisse in Subdomains umgezogen und diese knapp 20.000 Subdomains stiegen anschließend erst mal extrem in der Sichtbarkeit an. Für die eigene Domain wären einem solche drastischen Maßnahmen natürlich bekannt. Aber für die Analyse, mit welchen Aktivitäten die Mitbewerber quasi „im Hintergrund“ werkeln, können sich hier sehr wertvolle Erkenntnisse ergeben.
Der Sichtbarkeitsgraph lässt sich bei Searchmetrics individuell im Zeitverlauf auf Wochenbasis filtern. Dies hilft für Detailanalysen der letzten Wochen oder Monate. Ebenso nützlich ist eine voreingestellte Zoommöglichkeit nach ein, zwei oder sechs Monaten und einem oder zwei Jahren.

Sowohl Searchmetrics als auch SEOlytics und Sistrix zeigen die Verteilung der Rankings auf die Suchergebnisseiten eins bis zehn an (siehe Abbildung 2 für drei Domains bei Searchmetrics). Bei einer gesunden Domain (2) fällt die Säule von Seite eins bis zehn kontinuierlich ab. Fehlen Rankings auf Seite 1 oder liegen die Folgeseiten deutlich höher (1), dann liegt in der Regel ein ernsthaftes Problem vor. Fall (3) zeigt eine Domain, deren Ranking ab Seite 6 wieder spürbar ansteigt. Das ist ein sehr auffälliges Signal und hier müsste schnellstens untersucht werden, ob für ein Set von Keywords nicht eine Strafe durch Google verhängt wurde, was bei diesem Bild durchaus wahrscheinlich erscheint. 

Der eine oder andere Benutzer könnte die Achsendarstellung nach Kalenderwochen als etwas umständlich empfinden. Wer weiß schon auswendig, zu welchem Monat z. B. KW 23 gehört, geschweige denn zu welchem Datum. Die Werte nach KW auszuweisen, ist eigentlich sehr viel ehrlicher, denn die Toolhersteller aktualisieren ihre Daten in der Regel einmal pro Woche. Der Tag dieses Datenupdates wird dann angezeigt, aber er stimmt natürlich zwangsläufig selten mit dem genauen Tag eines Rankingwechsels überein. Läuft das Datenupdate an einem Montag und am Dienstag spielt Google einen neuen Filter ein, wird der „Absturz“ erst knapp eine Woche später festgestellt und ausgewiesen. Hier wie SEOlytics in Wochen zu denken, erscheint also durchaus logisch – unpraktisch für uns Menschen ist es wahrscheinlich dennoch, denn wir denken üblicherweise in Tag und Monat und nicht in hochzählenden Kalenderwochen.
Im Navigationspunkt „SVR“ lässt sich die Abbildung der Sichtbarkeit entsprechend nach vordefinierten Zeiträumen oder per Datumseingabe filtern. Praktisch: Solche (und andere erstellte) Filter lassen sich abspeichern und später einfach per Mausklick wieder aktivieren. Nutzt man den sog. DVR, der täglich aktualisiert wird, kann man Strafen dann wirklich tagesgenau erkennen bzw. nachvollziehen. Dazu aber weiter unten mehr.

Sistrix-Toolbox

Genauso wie bei den anderen Anbietern zeigt Sistrix seinen Sichtbarkeitsindex bereits nach Domaineingabe in der Übersicht. Und auch hier lassen sich die bereits erwähnten Google-Updates schnell und sicher identifizieren, wie in Abbildung 4 zu sehen ist.

Bei Sistrix lässt sich die Ansicht des Sichtbarkeitsverlaufs leider nicht zeitlich filtern. Das ist bei Domains schwierig, die vormals höhere Werte hatten, mit denen die Y-Achse ja automatisch angepasst wird. Nach einem Absturz lassen sich Bewegungen bei den aktuellen Werten praktisch nicht mehr vernünftig erkennen, da die Ausschläge im Vergleich zu den historischen Daten dann zu gering sind. Immerhin lassen sich die Werte für die generierte Anzeige als XLS- oder CSV-Datei für eigene Analysen downloaden. Diese Funktion fehlt bei den anderen Anbietern zwar vollständig, das ist dort aber wegen der einfachen Filterbarkeit verschmerzbar. Bei rankingschwachen Domains mit einem sehr niedrigen Indexwert sind scheinbar starke Schwankungen übrigens normal. Das liegt an den wenigen Keywords, bei denen jede kleine Änderung im Ranking den Sichtbarkeitswert stark beeinflusst. 

Frage 2: Wie erkennt man ungute Strukturen bzw. schlechte Signale?

Um es vorwegzunehmen: Zur Beantwortung dieser Frage braucht man bis auf das Tool von OnPage.org, wo man versucht hat, sehr viel Hilfestellung zu geben, gutes SEO-Wissen. Viele der Daten, die man zur Analyse benötigt, liegen in der Regel ja bei den Anbietern vor. Und dass alle auch zwangsläufig etwas von SEO verstehen müssen, davon darf man getrost ausgehen. Was läge also näher, als die vorliegenden Zahlen maschinell zu interpretieren und aufgrund bekannter Problemkonstellationen zumindest Warnhinweise für den Benutzer auszugeben? Hat eine Domain z. B. vergleichsweise viele Links von nur wenigen Domains und zudem ein deutlich ungesundes Verhältnis bezüglich der Linkankertexte, würde ein SEO sofort mit den Ohren wackeln und laut rufen: „Houston, wir haben ein Problem!“ Bei den meisten Tools sieht man die notwendigen Werte auf Anhieb mit wenigen Mausklicks oder sogar auf nur einer Seite komprimiert dargestellt. Trotzdem erfolgt hier keinerlei wenigstens zarte (mechanische) Warnung. Möglicherweise hat man Bedenken, dass sich Nutzer beschweren, wenn ihre Domain abgestürzt ist und vorab eben keine Warnung abgegeben wurde. Die Gründe für eine Strafe beim Ranking können ja sehr vielfältig sein und sind keinesfalls alle abbild- oder gar vorab berechenbar. Wenn man diesen verbalen und rechtlich sicheren Spagat schaffen würde, wenigstens bei offensichtlichen Asymmetrien wichtiger Werte einen entsprechend vorsichtigen Hinweis anzuzeigen – dies wäre sicherlich durchaus nützlich, denn schließlich ist nicht jeder Nutzer SEO-Profi.
Was sind solche „unguten“ Strukturen? Im Prinzip finden sich diese Kernpunkte bereits ausführlicher weiter hinten in dieser Ausgabe in unserer Site Klinik. Was man tunlichst vermeiden sollte bzw. was vor allem Google missfällt, ist:

  • Duplicate Content
  • sitewide Links (von jeder Seite einer anderen Domain der gleiche Link)
  • im Verhältnis zu anderen Linkankertexten (v. a. Money-Keywords) zu wenig Links mit „www.meinedomain.de“
  • Links von schlechten bzw. minderwertigen Sites und von Linktauschnetzwerken

Natürlich sind das nicht die einzigen Kriterien, die das Ranking negativ beeinflussen. Aber diese kann man mit vergleichsweise wenig Aufwand über Tools zumindest im Ansatz recht schnell identifizieren. Eine eingehende Analyse im Falle von Auffälligkeiten ersetzt dieser schnelle Blick zwar nicht, aber man bekommt mit wenigen Klicks einen Eindruck, ob hier ein Problem vorliegen könnte, das der Domain bei zukünftigen, schärfer eingestellten Updates Schwierigkeiten machen könnte.

Searchmetrics Essentials

Sich einen Überblick über die Backlinkstrukturen zu verschaffen, geht bei Searchmetrics relativ unkompliziert. Über den Menüpunkt „Backlinkprofil“ lässt man sich die verweisenden Domains anzeigen (Abbildung 5). Umfassende Details für diese Domains erhält man dann durch einen Klick auf die Gesamtzahl der Links. Für jede einzelne Seite werden nun alle Ziel-URLs mit den entsprechenden Linktexten angezeigt. Sehr nützlich ist in diesem Zusammenhang die Angabe „Ext./Gesamt/Position“ in der dritten Spalte. Hier sieht man den Anteil externer Links gegenüber der Zahl aller abgehenden Links (gesamt) und vor allem die Position der entsprechenden Links im Quelltext. Im Detailbild in Abbildung 5 erkennt man z. B., dass die Links von Position 95, 97, 98 und 99 kommen, bei insgesamt 102 Links (intern und extern). Hier handelt es sich mit hoher Wahrscheinlichkeit um Links aus dem Fußbereich der Webseite, die man ja bekanntermaßen tunlichst vermeiden sollte. Das mühsame Durchklicken auf die eigentlich verlinkende Webseite, um manuell Lage und Umfeld der Links zu suchen und zu prüfen, kann somit in vielen Fällen unterbleiben. Hier sieht man auch so schnell, wenn unnatürlicher Linkaufbau betrieben wurde.  

Wer z. B. externe Dienstleister damit beauftragt hat, sich um das „Standing“ der Domain via Backlinks zu kümmern, kann über den Menüpunkt „Neueste Links“ sowohl im Backlinkprofil (Abbildung 5) sehen, wie gut hier gearbeitet wurde, als auch unter „Linktexte“ und dort unter „neueste Linktexte“ (Abbildung 6). Somit lassen sich frühzeitig Fehlentwicklungen erkennen und beurteilen, wie gut die Arbeit der entsprechenden Agentur tatsächlich ist. 

Alles in allem hält Searchmetrics durch den großen Datenbestand und die leicht anwendbaren Filter ein großes Repertoire bereit, um unnatürlich wirkende Backlinkstrukturen schnell transparent zu machen. Das geht dabei so einfach von der Hand, dass man sich wundert, wie leicht es schlechten SEO-Agenturen noch immer fällt, Site- und Shopbetreibern auf diese Weise eigentlich sofort erkennbaren Linkschrott für teures Geld unterzuschieben.

SEOlytics


SEOlytics bietet eine sehr breite Palette an umfassenden Filtermöglichkeiten im Tool an. Diese sind allerdings zum Teil sehr gut versteckt, wie in Abbildung 8 zu sehen ist – selbst im Videotutorial nutzt der Sprecher wohl eher intuitiv die Formulierung „bei der Lupe versteckt“. Kontextbezogen rollen nach einem Klick auf den winzigen Pfeil dann jeweils nützliche Filter zur Auswahl herunter. Vorsicht ist dann bei der weiteren Analyse geboten, denn die aktivierten Filter werden mit einem ebenso kleinen grünen Pluszeichen neben der Lupe angezeigt. Dieses kann man leicht übersehen und bekommt anschießend ggf. nicht mehr alle Daten zur Ansicht. Man sollte also nicht vergessen, den so aktivierten Filter wieder zurückzusetzen. 

Im Modul „Backlinks“ erhält man eine Übersicht über die Backlinkstruktur. Auch hier lassen sich deutliche Asymmetrien zwischen der Anzahl der Links und von wie vielen Domains sie kommen schnell ersehen. Die Ansicht „Backlinks“ zeigt dann die Quell- und Ziel-URL, den Linktext und einige andere Kennzahlen. Eine direkte Möglichkeit, zu sehen, von welchen Domains möglicherweise sitewide Links kommen, gibt es allerdings nicht. Im Reiter „Linktexte“ sieht man in einer Tortengrafik, welche Linktexte besonders häufig vorkommen. Überwiegen bereits in dieser Übersicht SEO-motivierte Keywords als Linktext, ist ebenfalls Vorsicht geboten und eine tiefer gehende Analyse anzuraten.

Sistrix


Einen ersten Eindruck über eine möglicherweise unnatürliche Backlinkstruktur sieht man in der Sistrix-Toolbox bereits im Überblick. Dort wird die Anzahl Links ausgewiesen, von wie vielen Domains diese kommen und aus wie vielen unterschiedlichen Netzen. Kommen z. B. 20.000 Links nur aus 200 Netzen, sollte man sich die Links auf jeden Fall genauer ansehen, ob diese Asymmetrie einen natürlichen Ursprung hat. Hierfür gibt es einen eigenen Menükasten „Links“ und eine Sonderfunktion, die allerdings erst manuell im Menüpunkt „Links/Überblick“ aktiviert werden muss (Abbildung 9).

Nach dieser Aktivierung erscheint im Linkbox-Menü neben dem Punkt „Links“ zusätzlich in Klammern „(Expertenmodus)“ (sieheAbbildung 10). Über der Ansicht der einzelnen Links aktiviert man diesen Expertenmodus dann nochmals via Button. Jetzt wechselt die Toolbox in einen Ansicht mit breitem Browserfenster und einer excelähnlichen Darstellung und umfassenden Filtermöglichkeiten.

In diesem sehr flexiblen Anzeigemodus bekommt man die Backlinks angezeigt und sieht nun auch bei jedem Link in der Spalte „Anzahl Links“, wie viele von dieser Domain (noch) kommen. Über aufsteigende oder absteigende Sortierung dieser Spalte findet man schnell die Domains, von der auffällig viele Links kommen. Dies kann selbstverständlich auch ganz natürliche Ursachen haben, z. B. wenn die Domain einen guten Blog hat, der in anderen Blogs in der sog. Blogroll steht. Liegen solche Gründe vor, taucht der Backlink natürlich bei diesen auf jeder einzelnen Seite auf, dann allerdings meist mit einem Linktext (gleich in der zweiten Spalte zu sehen), der den Domain- bzw. Blognamen beinhaltet. Man sollte sich daher manuell vornehmlich die verlinkenden Domains ansehen, die aufgrund vieler Links möglicherweise sitewide verlinken und Money-Keywords als Linktext tragen. Taucht der Link dort dann in räumlicher Nähe mit Links zu anderen Domains im Footer oder in einem Kasten als „Sponsored Links“ oder einer ähnlichen Formulierung auf und tragen diese ebenfalls erkennbar suchmaschinenoptimierte Linktexte, dann ist Vorsicht geboten, sofern der Link nicht mit „Nofollow“ gekennzeichnet wurde. Die Linkdaten sind zwar bei Sistrix prinzipiell auch als CSV-Datei herunterladbar, allerdings werden dabei die meisten der wertvollen Zusatzinformationen aus der Online-Ansicht nicht mit übergeben.

LinkResearchTools

LRT liefern ausschließlich Daten rund um Links. Für eine schnelle Analyse gibt es das „Quick Backlinks“-Tool, das innerhalb einer Minute bis zu 2.000 der wichtigsten Backlinks liefert. Über ein Pulldown lassen sich sogar bis zu 8.000 Links auswählen – das Ergebnis dauert dann wenige Sekunden länger. Für tiefer gehende Analysen ist der „Backlink Profiler“ allerdings besser geeignet. Die gefundenen Links lassen sich, ähnlich wie in der Sistrix-Toolbox, nach Spalten auf- und absteigend sortieren. LRT hält allerdings ungleich mehr Kennzahlen für die Beurteilung vor. Über die Spalte „Theme“ wird eine Einsortierung in grobe Kategorien wie Business, Health oder auch Pornography vorgenommen und über „SiteType“ angezeigt, ob es sich z. B. um einen Blog, ein Forum, ein Web Directory oder eine normale Website handelt. Somit ist es nicht nur möglich, sich schnell einen Überblick zu verschaffen, sondern recht einfach, z. B. auch gezielt Links von themenfremden oder auch minderwertigen Sites aufzuspüren.

Hierzu kann u. a. der sog. „Cemper Juice Indikator“ (sieheAbbildung 11, Spalte: Juice) verwendet werden. Dort werden unterschiedliche „Juice“-Kategorien mit angehängten Daten ausgewiesen. Für die Beurteilung schlechter Linkqualität gibt es die Kürzel: 

  • „Dead“ (die linkende Domain wird selbst nicht in Google gefunden oder angezeigt) 
  • „DeadMeat“ (Nicht erreichbar oder keine HTML-Seite) 
  • „Dupe“ (domainübergreifender Duplicate Content) mit einer Ziffer dahinter, die angibt, auf wie vielen unterschiedlichen Domains der Content der linkenden Seite noch vorkommt
  • NSN (kein Snippet in Google angezeigt)

Hat eine Domain zu viele Links von solchen zweifelhaften Quellen, wird sie aller Wahrscheinlichkeit nach irgendwann ein Problem mit den Spamfiltern der Suchmaschinen bekommen. Wird für die Backlinks dagegen im Wesentlichen das Kennzeichen „Juice“ mit einem Wert bis 25 (je höher, desto besser) ausgegeben, ist dies ein deutlich besseres und gesund wirkendes Signal.  

Onpage.org


Wie erwähnt, ist dieses Tool zu Analyse der OnPage(eine einzelne Seite)- und der OnSite(die gesamte Domain)-Faktoren einer bzw. der eigenen Domain sehr gut geeignet. Für einmalige Schnellanalysen ist es im derzeitigen Betastadium (noch) nicht ausgelegt. Die Eingabe einer beliebigen Domain und eine sofortige Antwort über deren Status sind nicht möglich, denn das Tool muss erst alle Seiten crawlen und anschließend bewerten.

Das Tool analysiert alle noch vorhandenen Fehler und gibt diese priorisiert sowohl in Übersichten als auch mit Detailinformationen aus. Man bekommt praktisch eine interaktive Checkliste, was an der Domain noch optimierbar ist und warum man einzelne Dinge tun sollte. Man kann wohl ohne Übertreibung feststellen, dass man sich bei OnPage.org mit spürbarem Abstand die meiste Mühe gegeben hat, den Nutzer nicht mit verdichteten Kennzahlen oder vermeintlichen Selbstverständlichkeiten allein zu lassen. Jede Analyseseite bietet eine entsprechende Erklärung und nimmt damit gerade die Einsteiger sanft, aber wirksam bei der Hand. Somit sind auch hier gar keine größeren Erklärungen notwendig, worauf besonders zu achten wäre. Das Tool führt den Sitebetreiber Stück für Stück zu bisher unerkannten Fehlern. Diese müssen anschließend „nur“ noch behoben werden. Schlechte Signale in Form ungünstiger Backlinks zeigt OnPage.org nicht an. Aber das ist auch gar nicht Anspruch und Zielrichtung des Tools. Dafür zeigt kein anderes Tool das Optimierungspotenzial einer Domain so detailliert und tief gehend an und überwacht diese entsprechend dauerhaft.

Wie findet man gute Keywords?

Über Searchmetrics startet eine Keywordrecherche über die Eingabe eines Basiskeywords. Zu diesem werden dann „Similar Keywords“ ausgegeben (Begriffe, die den innerhalb eines Wortes oder einer untersuchten Phrase enthalten) und weiter unten „Related Keywords“ (die dem untersuchten Begriff semantisch bzw. sinnhaft nahe sind). Am Ende jeder Tabelle kann man über den Link „Long Tail“ noch weitere möglicherweise passende Keywords anzeigen. Die Keywords selbst sind leider als Ostereierlink (Such mich!) getarnt. Sie sind allesamt klickbar und zeigen die aktuellen organischen, bezahlten und „Universal“-Rankings (Bilder, Videos, Shopping etc.) für dieses Keyword sowie Veränderungen und Trends. Eine wunderbare Information für die Einschätzung der „Stabilität“ der Suchergebnisse bezüglich dieses Keywords! Die Keywordlisten lassen sich auch als CSV-Datei downloaden. 

Zu jedem Keywordvorschlag weist Searchmetrics in Klarzahlen das Suchvolumen aus, den aktuellen CPC, also was das Keyword pro Klick bei AdWords kosten würde (dies sind allerdings nur grobe Angaben), und welches Anzeigenbudget von Werbetreibenden gesamt für dieses Keyword ausgegeben wird. Die Angaben beziehen sich dabei auf Monatswerte und lokale, exakt passende Suchanfragen. 

Sistrix


In der Sistrix-Toolbar kann man zwar ein Keyword eingeben, erhält aber statt Vorschlägen die Rankings für dieses Keyword. Hier funktioniert das Finden von Keywords nicht unabhängig, sondern domainbezogen. Zunächst gibt man daher am besten seine eigene Domain ein und schaut sich an, für welche Keywords aus dem Datenbestand von Sistrix die Domain rankt. Hier erhält man wertvolle Hinweise auf Keywords, die z. B. aktuell auf Seite 2 oder 3 ranken und die man gezielt durch entsprechende Maßnahmen meist relativ einfach nach vorn bringen kann. Hierfür gibt es einen eigenen Menüpunkt „Chancen“. Neue Keywords findet man bei Sistrix über die Eingabe von bis zu drei Mitbewerberdomains. Das Tool sucht dann Keywords dieser Mitbewerber und gibt sie aus, wenn die eigene Domain damit nicht unter den hundert ersten Plätzen rankt.

Einen ernsthaften Blick ist auch der Menüpunkt „Suggest“ wert. Hier werden auf Basis der Keywords, für die die eingegebene Domain rankt, die entsprechenden Ergänzungsvorschläge (Suggest) zugeordnet, die Google beim Eintippen in den Suchschlitz macht. Da diese Vorschläge von Suchenden häufig übernommen werden, lohnt sich ggf. eine gesonderte Optimierung dafür. 
Das Keywordtool von Sistrix basiert wie beschrieben immer auf den bereits bestehenden Rankings einer Domain. Will man Informationen über wirklich neue Keywords, zu denen man selbst oder die bekannten Mitbewerber noch nicht ranken bzw. gefunden werden, bleibt nur die Einzelabfrage rechts oben im Domain- und Keywordeingabefeld, das dann rechts neben den Rankings das Suchvolumen, die Konkurrenz und den Trafficverlauf ausweist, dies allerdings nur per Balkengrafik, die keine zahlenmäßigen Informationen enthält. Insofern geht es bei Sistrix im Kern eher um die vollständige Transparenz rund um das Ranking von Keywords und Domains, aber nicht um eine echte Keywordrecherche im Sinne von Vorschlägen – wenn man von den durchaus wertvollen Recherchemöglichkeiten bzw. dem Vergleich mit Mitbewerberdomains einmal absieht.  

Frage 4: Wo stehe ich bzw. wie kann man sich schnell mit den Mitbewerbern vergleichen?

Searchmetrics Essentials

Mitbewerbervergleiche gehen bei allen Anbietern sehr einfach. Searchmetrics Essentials lässt bis zu drei weitere Domains zu, mit denen man sich nach Eingabe der Domains direkt vergleichen kann. Das gilt sowohl für die organischen, also unbezahlten Rankings (Abbildung 16) als auch für die bezahlte Suchwerbung (Abbildung 17). Letzteres kann nebenbei bemerkt genauso aufschlussreich sein, denn eine gewisse Transparenz zu haben, ob und ggf. wie viel die Mitbewerber für bezahlte Suchmaschinenwerbung ausgeben, kann zur Absicherung eigener Strategien niemals schaden.

Searchmetrics bietet unter dem Menüpunkt „Organic“/„Wettbewerber“ noch eine Sonderauswertung an, die eine oft mehrere Hundert Positionen umfassende Liste aller errechneten Wettbewerber enthält, nebst wichtigen Kennzahlen wie z. B. die Anzahl der gleichen Keywords, einen Traffic-Index und den errechneten Wert des Traffics. Dies stellt für einen echten Mitbewerbervergleich eine wahre Goldgrube an Vergleichswerten dar (Abbildung 18).

Gerade für die vielfältigen Vergleichsmöglichkeiten zwischen Domains hat sich Searchmetrics sehr viel Mühe gegeben. So ist es z. B. möglich, auch mit Unterverzeichnissen zu arbeiten, was sehr viel schärfere Details hervorbringt. Sucht man die jeweiligen Verzeichnisse beim Mitbewerber heraus, sind somit sogar Vergleiche bei Sparten oder Produktgruppen möglich. Mit anderen Worten: Man vergleicht nicht mehr grob auf Domainebene, sondern z. B. www.meinedomain.de/produktsparte-Handschuhe/ mit www.mitbewerber.de/alle_handschuhe/. Zudem kann man sich auch mit größeren Universalversendern „messen“. Einen kleinen Spezialshop mit Otto.de vergleichen zu wollen, wäre natürlich Unsinn, aber mit dem Muster www.meinfuellershop.de und www.otto.de/schreibfueller (Verzeichnisnamen sind fiktiv!) macht so etwas deutlich mehr Sinn und bringt fairere Vergleiche. 

SEOlytics


Auch SEOlytics stellt unter dem Menüpunkt „SEO Reseach“/„SVR“ schnelle Vergleichsfunktionen zur Verfügung. Hier lassen sich bis zu zehn Domains direkt miteinander vergleichen. Sehr viel aufschlussreicher ist die Möglichkeit, sich mit eigenen, selbst definierten Keywords mit Mitbewerbern zu vergleichen. Im Menüpunkt „SEO Monitoring“ steht nach Definition der Domains und jeweils mindestens 20 Keywords nach etwa 24 Stunden der sog. DVR (Daily Visibility Rank) zur Verfügung. Der Vorteil liegt hier klar auf der Hand: Man kann die Datengrundlage des Vergleichs exakt steuern und erhält somit einen über die Zeit stabilen Vergleich, der nicht durch eine automatische Hinzunahme von Keywords seitens des allgemeinen Pools beeinflusst wird. Ein weiterer Vorteil ist, dass der DVR, wie der Name schon andeutet, täglich neu berechnet wird. Es liegen also jeweils nicht Wochen-, sondern aktuelle Tageswerte vor.

Selbstverständlich muss man sich beim DVR darüber im Klaren sein, dass dieser Vergleich nur so „ehrlich“ ist, wie man umfassend wichtige Keywords ermittelt und hinterlegt hat. Wer hier nur die Keywords eingibt, für die er sowieso schon gut rankt, und sich mit den Mitbewerbern vergleicht, wird wohl immer als vermeintlicher Sieger hervorgehen. Wahre Transparenz und gleichzeitig eine wichtige Steuerungsübersicht erhält man hier nur dann, wenn man tatsächlich alle wichtigen Keywords verwendet, die für das eigene Business bzw. das Ranking wichtig sind.

Sistrix


In der Sistrix-Toolbox ist die Funktion für den Mitbewerbervergleich etwas versteckt. Hierzu muss man das Pulldown-Menü „Mehr“ im Sichtbarkeitschart aufklappen und kann dann bis zu vier Domains mit der eigenen vergleichen (Abbildung 21). Im Überblicksmenü gibt es einen eigenen Punkt „Konkurrenzanalyse“, der weitere bzw. tiefer gehende Vergleiche erlaubt.

Auch bei Sistrix kann man eigene Keywordsets hinterlegen, mit denen man einen Vergleich fahren kann. Es sollte laut Menüauswahl auch möglich sein, gemeinsame Keywords mit jeweils bis zu drei Mitbeweberdomains zu finden. In unserem Test hat das allerdings nicht geklappt, weil die Funktion offenbar noch fehlerhaft arbeitet. In der Konkurrenzanalyse (Abbildung 22) wird dann der Übereinstimmungsgrad der eigenen Keywords mit dem der gefundenen Mitbewerber mittels eines blauen Balkens visualisiert. Die dahinterliegenden Zahlen bekommt man allerdings nur über den Download (unter „Mehr“) im Excel- oder CSV-Format. Die letzte Spalte mit dem Sichtbarkeitsindex gibt einen guten Überblick, wie stark die jeweiligen Mitbewerber in ihrem gesamten Ranking sind.

LinkReseachTools

Sicherlich ist für eine fundierte Einschätzung der Wettbewerber auch die Kenntnis über deren Backlinkstruktur wichtig. Auch Searchmetrics, SEOlytics und Sistrix erlauben hier natürlich sehr gute Vergleiche. Die LinkResearchTools halten hierfür allerdings einige sehr spezialisierte Reports zur Verfügung. Für einen schnellen Vergleich lässt sich gut „Quick Domain Compare“ nutzen, bei dem man nach Eingabe von bis zu fünf Domains innerhalb von Sekunden die wichtigsten Kennzahlen direkt nebeneinander sehen kann (Abbildung 23). Die farbigen Buttons, die am unteren Ende der Übersicht auftauchen, erlauben per Mausklick das Anstoßen tiefer gehender Analysen der jeweiligen Domain. 

LRT hält noch zwei weitere Vergleichstools bereit: Mit dem „Competitive Landscape Analyser“ kann man die eigene Domain im Vergleich zu Mitbewerbern einer Stärken-Schwächen-Analyse unterziehen. Nach Eingabe von bis zu zehn anderen Domains werden alle verfügbaren Kennzahlen erhoben und anschließend kann man diese, wie in Abbildung 24 angedeutet, direkt vergleichen. Das Tool stellt jeweils den Durchschnitt über alle und die Durchschnitte der Top 5 und Top 3 der eigenen Domain (in der Abbildung mit „Sie“ benannt) gegenüber. Hier lassen sich Abweichungen und Asymmetrien sehr gut erkennen. Für jede Darstellung lassen sich per Mausklick die zugrunde liegenden Daten weiter filtern. 

Speziell zum Vergleich der Geschwindigkeit des Linkaufbaus ist das Tool „Competitive Link Velocity“ gedacht. Dort lässt sich jeweils für die letzten 30 Tage oder bis zu zwei Jahre zurück bei bis zu elf Domains das Hinzukommen von Backlinks visualisieren. Damit erhält man also Transparenz, ob und wie schnell Mitbewerber Linkbuilding betreiben und damit ggf. im SEO-Umfeld Aktivitäten entwickeln oder bereits entwickelt haben.  

Frage 5: Welche Besonderheiten haben die Tools?

Jedes Tool ist anders und hat seine ganz speziellen Vorzüge. Bei Searchmetrics kann man auf die mit Abstand größte und verlässliche Datenbasis zugreifen und sich diese Zahlen durch viele nützliche Funktionen nach den eigenen Anforderungen darstellen lassen. Hervorhebenswert ist sicherlich vor allem das in Umfang und Tiefe einzigartige Modul für Analysen im Bereich Social Media. Die immer wichtiger werdende „Social Visibility“ und der „Social Spread“ einer Website liegen hier völlig transparent auf dem Bildschirm. Es ist u. a. nicht nur sichtbar, wie viele Facebook Shares, Likes, Kommentare, Tweets, Google+-Wertungen, Erwähnungen in Delicious, StumbleUpon oder LinkedIn man eingesammelt hat, sondern dies lässt sich auch bis auf einzelne Seiten herunterbrechen. Der Erkenntnisnutzen liegt auf der Hand: Man kann exakt sehen, welcher Blogbeitrag oder welche Aktivität in sozialen Netzwerken mehr oder weniger „Buzz“ erzielt hat, und daraus lernen, was bei der eigenen Zielgruppe „funktioniert“ – und was eben nicht. Wenn die These vieler Experten stimmt, dass Signale aus dem Bereich „Social“ für Google und andere Suchmaschinen zukünftig immer wichtiger werden bzw. jetzt schon sind, ist dieses Modul die erste Wahl zur Steuerung entsprechender Aktivitäten. Nicht unerwähnt lassen sollte man die Unterstützung von derzeit 18 Ländern. Wer seine Website international aufgestellt hat, findet hier also auch Daten aus den wichtigsten Industrienationen. 
Bei SEOlytics und zum Teil auch bei Sistrix lassen sich eigene Keywords hinterlegen, mit denen man dann eben auch eigene Kennzahlen bilden kann, die keinen toolseitigen Schwankungen hinsichtlich des Keywordpools unterliegen. Der Vollständigkeit halber sei erwähnt, dass bei Searchmetrics diese Funktion in der etwas teureren Suite (ab 398,- €) enthalten ist, die dann neben weiteren Funktionen allerdings auch Ergebnisse und Sichtbarkeiten städtebezogen für lokale Keywords ermöglicht. Die Möglichkeit, seinen eigenen und, wie bei SEOlytics, täglich berechneten Indexwert verfolgen zu können, ist für ernsthaftes SEO sicher nützlich. Das oft eingebrachte Argument, man müsse solche Werte nicht täglich berechnen, weil sie natürlichen Schwankungen unterliegen, greift deutlich zu kurz. Sieben Werte pro Woche zu sehen und daraus einen Trend ablesen zu können, fällt sicherlich leichter, als jeweils nur einen einzelnen Wochenwert zu haben, der ja auch bei der punktuellen Extraktion aus den Rankings denselben Schwankungen unterworfen ist und damit zufällig erwischte Positiv- oder Negativausreißer gleich als Wert für eine ganze Woche darstellt. SEOlytics wartet noch mit einem Domainfinder, einem Linkhunter und einen Linkmonitor auf, der den Prozess der Backlinksuche und des Backlinkaufbaus unterstützen soll. Dazu mehr in der nächsten Ausgabe.   
Das Preismodell der Sistrix-Toolbox ist nach Modulen gestaffelt, aber für eine ernsthafte Arbeit braucht man sicherlich neben dem SEO-Basis-Modul mindestens noch das Backlink-Modul sowie das Monitoring-Modul. Sofern man auch intensiv mit AdWords arbeitet, empfiehlt sich sicherlich noch das SEM-Modul. Der Datenbestand von Sistrix geht bis März 2008 zurück. Allerdings kann man den Sichtbarkeitsindex über einen so langen Zeitraum nicht wirklich vergleichen, denn der zugrunde liegende Keywordpool muss sich ganz zwangsläufig stark erhöht haben. Damit steigt ja dann auch augenscheinlich die Sichtbarkeit an, denn es werden plötzlich mehr Treffer gefunden, die zwar vorher auch schon da waren, aber eben nicht getrackt wurden. Sehr praktisch sind die leicht anzulegenden Berichte im Monitoring-Modul. Dort kann man für wichtige Kennzahlen eine Überwachung einrichten und bekommt die Ergebnisse dann bequem wöchentlich jeweils per Mail geliefert. Weiterhin ist es möglich, sich über eine Programmierschnittstelle (API) auch automatisiert Daten übermitteln zu lassen. Der Sistrix-Sichtbarkeitsindex ist wohl alleine aufgrund seines Alters eine der am häufigsten verwendeten und zitierten Kennzahlen in der Branche. Selbst das Magazin Focus hat sich vor Kurzem ganz offiziell ein Loch in die eigenen Printnews gefreut, weil deren Index über allen anderen in der Branche liegt. Dass dies freilich nur zum Teil mit Qualität zu tun hat und eigentlich eher ein Lob für die zuständigen SEOs wäre, hat man den Lesern allerdings verschwiegen. 
Die Vorteile der LinkResearchTools sind schnell auf den Punkt gebracht: Völlige Transparenz rund um das Thema Backlinks. Für jeden Link und jede linkabgebende Domain liegen sehr viele Kennzahlen zur Beurteilung vor. Wer es lieber einfacher haben möchte, kann sich z. B. auf die vom Anbieter verdichteten Kennzahl „Power*Trust dom“ stützen, die etwas über die Qualität einer Domain anhand von Stärke und Vertrauenswürdigkeit aussagt. Die vielen Kennzahlen können für einen Einsteiger allerdings auch erschlagend wirken. Die Hilfefunktion ist eher für Profis geschrieben und lässt selbst bei diesen oft Fragen offen. So kann man den Unterschied zwischen einer „Domain“ und einer „Topdomain“ nur vermuten – wichtig muss er aber allemal sein, denn dafür gibt es zwei verschiedene Kennzahlen. Ohne eine ausgedruckte Hilfeseite ist es sicherlich auch schwierig, ständig die Bedeutung von Kennzahlen wie LV24m, Power-topdom, Linkloc, LinkPosPct oder den Unterschied zwischen JuiceD/9, Juice/25 und Dupe/19 im Kopf zu behalten. Auch wenn hier sicherlich bezüglich der Verständlichkeit noch Optimierungspotenzial besteht, darf dies nicht darüber hinwegtäuschen, dass LRT eine ganz hervorragende Informationsquelle für Links und Linkaufbau ist, worauf im zweiten Teil in der nächsten Ausgabe von Website Boosting noch intensiver eingegangen wird. 
OnPage.org war zum Zeitpunkt des Redaktionsschlusses noch im sog. Closed-Beta-Stadium und somit noch nicht für eine breite Öffentlichkeit zugänglich, was sich aber möglicherweise schon geändert haben kann, wenn Sie diese Zeilen lesen. Auch wenn sich natürlicherweise im Betastatus seriös noch nichts über die spätere Stabilität und Fehlerfreiheit aussagen lässt, sieht es doch so aus, als könne die Überwachung der eigenen Domain mit diesem Tool schnell zum Pflichtprogramm für Shops und Sitebetreiber werden, die mit ihren Online-Engagements auf gute Rankings und das damit verbundene Geldverdienen angewiesen sind. Wie bereits erwähnt, wird der sog. OnPage- und OnSite-Optimierung (sieht man von Optimierungen der Metatags, Hx und Keyworddichten ab) ungerechtfertigterweise noch zu wenig Beachtung geschenkt. OnPage.org legt den Finger genau in diese Wunde und drückt zwar sanft, aber bestimmt so fest darauf, dass man es spürt.

Fazit

Zur Interpretation von Zahlen, die durch solche Tools ausgewiesen werden, braucht man in der Regel doch etwas Eingewöhnungszeit. Wenn man sich an ein Tool gewöhnt hat und es regelmäßig für die eigene Domain und auch zur besseren Transparenz über den Stand beim Mitbewerb nutzt, bekommt man aber durchaus schnell ein besseres Gefühl für Veränderungen. An einigen Stellen haben sich die berufsmäßig zahlenverliebten Anbieter auch ehrlicherweise noch nicht vollständig auf den normalen Benutzer (vulgo: Non-SEO-Nerd) eingerichtet. Wenn z. B. ein Indexwert von 34.992 auf 34.991 absinkt, wird das in den Übersichten durch den gleichen roten Abwärtspfeil dramatisiert, wie wenn der Absturz 10.000 Punkte beträgt. Das Farbspektrum und auch die Größe oder Richtung eines Symbols ließen hier weit mehr Spielräume zu, damit die statischen Zahlen bzw. ihre Veränderung zur letzten Messung leichter zu verstehen sind. Dass Zahlenangaben zum Teil mit bis zu vier Stellen hinter dem Komma ausgewiesen werden, hat in den wenigsten Fällen wohl einen konkreten Informationsnutzen, sondern täuscht womöglich eine Genauigkeit vor, die so sicher nicht unbedingt haltbar ist. Einige Anbieter geben zusätzlich zwar noch Prozentzahlen an, aber leider oft nur an einzelnen Stellen. Aber wer „sein“ Tool häufiger nutzt, bekommt daher erst im Lauf der Zeit ein Gefühl, ob 34.992 nun im Vergleich zu anderen ein guter Wert ist, wie gut er ist und vor allem, welche Schwankungen im Bereich des Normalen liegen. Man sollte sich also als Einsteiger keinesfalls von den vielen Zahlen und Messwerten abschrecken lassen und immer im Hinterkopf behalten, dass sie und oft auch ihr Detaillierungsgrad für die Profis mitunter sehr wichtig sein können. Insofern wird man möglicherweise genau dies nach einiger Zeit zu schätzen wissen. Vielleicht bessern die Hersteller ja aber auch an einigen Stellen nach und unterstützen dem Nicht-Power-Nutzer etwas mehr bei der Interpretation der jeweiligen Zahlen. OnPage.org geht offenbar genau diesen Weg und gibt für jede Auswertung eine Erklärung, wichtige Hinweise, warum dieser Wert wichtig ist, und sorgt mit einem eingebauten SEO-Wiki für Transparenz im Kauderwelsch der SEO-Begrifflichkeiten. Das ist vorbildlich. 

Mission accomplished?

Generell kann man festhalten, dass die gestellten Basisfragen sich mit den aktuell am Markt verfügbaren SEO-Tools sehr gut und auch sehr schnell beantworten lassen. Wer heute im Suchmaschinenumfeld noch manuell nach den eigenen Rankings oder denen der Mitbewerber googelt, um Kennzahlen zu ermitteln (die man womöglich dann auch noch KPIs nennt), dem ist wahrscheinlich nicht mehr zu helfen. Die Preise aller Tools liegen deutlich unter dem, was man an Aufwand hierfür einspart. Das ist aber gar nicht der entscheidende Punkt! Die Transparenz über die Auswirkungen des eigenen Handelns und die Ableitung der richtigen Maßnahmen und Angriffspunkte für eine fortlaufende Optimierung wiegen die Kosten solcher Tools bei Weitem und mehrfach auf. Sie stellen die begehbare Brücke zwischen der eigenen Website, denen der Mitbewerber, den Suchmaschinen und den Besuchern dar. Es muss also niemand mehr mit dem Fernglas nach Details auf der anderen Uferseite suchen. 
In der nächsten Ausgabe erfahren Sie, wie Sie mit weiteren Spezialfunktionen solcher Tools effizient noch tiefer die die Welt von Google & Co. eindringen können, um Ihre Website noch ein Stück weiter nach vorn zu bringen.