SEO-Stärke einer Website beurteilen - mit kostenlosen Tools!

Daniel Unger
Daniel Unger

Daniel Unger ist Gründer und Geschäftsführer der eology GmbH. Er studierte Wirtschaftsinformatik mit dem Schwerpunkt E-Commerce. Während seines Studiums belegte er mit seinem Team bei der Google Online-Marketing Challenge den 2. Platz unter den Final 15 weltweit und fand dadurch den Weg zum Online-Marketing. Mit seinem aktuell 14-köpfigen Team betreut er kleine und mittelständische Unternehmen sowie Konzerne in den Bereichen SEO, PPC, Usability und Social Media.

Mehr von diesem AutorArtikel als PDF laden
Axel Scheuring
Axel Scheuring

Axel Scheuering belegte mit seinem Team bei der Google Online Marketing Challenge 2009 den 2. Platz unter den Final 15 weltweit und wurde dafür mit dem Marketingpreis Mainfranken ausgezeichnet. Nach dem Studium der Wirtschaftsinformatik mit Schwerpunkt E-Commerce gründete er die eology GmbH. Mit seinem Team betreut er Kundenwebsites in den Bereichen SEO, PPC und CRO.

Mehr von diesem AutorArtikel als PDF laden

Website-Betreiber müssen im Zuge der Suchmaschinenoptimierung häufig die Stärke einer Website im organischen Bereich von Google beurteilen (nicht bezahlte Suchergebnisse in der Mitte der Suchergebnisseiten), sei es im Linkbuilding, um einen fairen Deal mit dem Inhaber einer anderen Website auszuhandeln, oder um einen Vergleich mit den Mitbewerbern zu ziehen. Wer betreibt SEO erfolgreicher? Wer wird bei Google besser gefunden? Um diese Fragen zu beantworten, sehnen sich viele Website-Betreiber nach einfachen und idealerweise kostenlosen Metriken, die mit einer einzigen Zahl eine brauchbare Aussage treffen, wie stark eine Website bei Google ist. Lesen Sie im folgenden Artikel, welche Kennzahlen dazu geeignet sind und von welchen Sie besser die Finger lassen sollten.

Für viele Webmaster ist der Google PageRank eine aussagekräftige Kennzahl, und das völlig zu Unrecht, denn damit lässt sich heutzutage keine valide Aussage mehr über die Stärke einer Website treffen. Zwar ist der PageRank in den Augen vieler Website-Betreiber aktuell noch immer eine sehr vertrauenswürdige Kennzahl, weil er ja direkt von Google berechnet und veröffentlicht wird. Man vertraut dabei auf zwei Faktoren, die beide nicht mehr gelten: 1. Der PageRank-Wert, den Google veröffentlicht, ist korrekt. 2. Der PageRank ist Grundlage für die Berechnung des Rankings einer Website im Suchergebnis. Beide Theorien sind falsch.

Grundsätzlich muss man wissen, dass Google den PageRank in der Google-Toolbar (kostenlose Browsererweiterung von Google, die u. a. den PageRank-Wert einer Website anzeigt) und über Schnittstellen für andere Anwendungen veröffentlicht. Der PageRank, den Google intern berechnet und für das Ranking nutzt, hat wenig mit dem Toolbar-PageRank gemeinsam.

Ein wesentlicher Grund dafür ist, dass die PageRank-Werte, die Google in der Toolbar und in Anwendungen von Drittanbietern anzeigt, seit jeher sehr ungenaue Zahlen sind. Der wirkliche PageRank, der von Google intern verwendet wird, ist eine Zahl mit Nachkommastellen. Im Gegensatz dazu ist die einzige PageRank-Zahl, die jeder einsehen kann, der Google-Toolbar-PageRank, gerundet. Der PageRank wird exponentiell berechnet, d. h. man braucht für einen PageRank von 4 Punkten beispielsweise circa 100 Backlinks von PageRank-3-Seiten. Wer einen PageRank von 5 anstrebt, muss dagegen schon mehr als 500 solcher Links haben. Eine PageRank-5-Seite ist deshalb deutlich stärker als eine PageRank-4-Seite, auch wenn der Wert nur einen Punkt höher liegt. Deshalb kann durch den PageRank ein falscher Eindruck von der Stärke einer Website entstehen, was folgendes Beispiel verdeutlicht: Ein Toolbar-PageRank von 4 wird im Bereich von 126 bis 625 Punkten im internen PageRank vergeben (Quelle: http://www.at-web.de/suchmaschinenoptimierung/pagerank.htm). Nun vergleicht man zwei Websites, die jeweils einen PageRank von 4 haben. Beide Websites sind also anscheinend gleich stark. Eine der Websites hat jedoch einen internen PageRank von 600 und die andere von 130. Die erste Website hat damit ein deutlich stärkeres Backlinkprofil und damit wahrscheinlich auch bessere Google-Rankings, und trotzdem suggeriert der PageRank von jeweils 4, dass beide Websites gleich stark sind, was eigentlich nicht stimmt.

Außerdem sind die PageRank-Werte, die Google veröffentlicht, meist mehrere Monate alt und deshalb veraltet. Das letzte große Update des Google-Toolbar-PageRanks war im Mai 2012, das vorletzte im Februar 2012. In den Monaten zwischen den Updates kann viel passieren. Websites können in dieser Zeit viele neue Links dazubekommen und damit ihre Rankings und auch den PageRank verbessern, ohne dass diese Entwicklung aus dem veralteten PageRank-Wert ablesbar wäre. Erst wenn das nächste Update kommt, hat man einen einigermaßen aktuellen Wert. Genauso ist eine Verschlechterung der Website in der Zeit zwischen den Updates möglich, was man ebenfalls nicht sofort am PageRank ablesen kann.

Bereits 2008 versetzte Googles oberster Rankinghüter Matt Cutts dem PageRank eigentlich schon den Todesstoß, als er erklärte: „We return random PageRank data if we feel like to.“ Zu Deutsch: „Wir spielen Zufallswerte für den PageRank aus, wenn uns danach ist.“ Diese Erfahrung haben in den letzten Jahren auch viele Website-Betreiber gemacht. Der PageRank kann von heute auf morgen deutlich abfallen oder ansteigen, ohne dass dies eine Auswirkung auf die Google-Rankings oder auf den Traffic der Website hätte, was man eigentlich erwarten würde. Hintergrund ist, dass Google Linkkauf und -verkauf unterbinden möchte. In den vergangenen Jahren wurde der Preis für einen Backlink hauptsächlich aufgrund des PageRanks der linkgebenden Seite bestimmt. PageRank-starke Seiten waren besonders wertvoll, da sich ein Link von solch einer Seite sehr positiv auf den eigenen PageRank auswirkte. Auch heutzutage soll es Leute geben, die den Preis eines Links immer noch von dem PageRank abhängig machen.

Spätestens seit 2008 ist durch das Bekanntwerden der Zufallswerte-Strategie von Google damit schon klar, dass man sich nicht zu sehr auf den PageRank konzentrieren und lieber andere Metriken auswerten sollte, um die SEO-Stärke einer Website zu beurteilen.

Wie sichtbar ist meine Website?

Inzwischen gibt es eine bessere Metrik, um die Stärke und SEO-Reichweite einer Website zu beurteilen, nämlich den Sichtbarkeitsindex. Solche Sichtbarkeitswerte werden von verschiedenen SEO-Tool-Anbietern ermittelt und kostenlos zur Verfügung gestellt. Wie der Name schon andeutet, sagt dieser Wert aus, wie sichtbar eine bestimmte Website in den Suchmaschinen ist. Einfach ausgedrückt kann man Folgendes behaupten: Je besser eine Website bei Google gefunden wird, desto höher ist ihr Sichtbarkeitsindex. Bei der genauen Berechnung spielen jedoch auch das Suchvolumen und vor allem die Ranking-Position des jeweiligen Suchbegriffs eine große Rolle.

Wenn ein Elektronik-Shop beispielsweise für den Suchbegriff (Keyword) „Handy“ auf Position drei bei Google gefunden wird, bekommt der Shop mehr Sichtbarkeitspunkte, als wenn dieser für den Suchbegriff „Handy online günstig kaufen“ auf Position eins gelistet wird. Hintergrund ist einfach, dass  in Deutschland jeden Monat 165.000 Suchende bei Google „Handy“ eingeben, „Handy online günstig kaufen“ dagegen gerade einmal zwölf. Über den Begriff „Handy“ bekommt der Online-Shop somit monatlich mehr Besucher, trotz schlechteren Rankings. Die Sichtbarkeitsindizes verfolgen also das Ziel, den organischen Traffic einer Website in einer absoluten Zahl auszudrücken.

Unter den deutschsprachigen SEO-Tools ist allen voran die Sistrix-Toolbox von Johannes Beus zu nennen, die als erstes einen solchen Sichtbarkeitsindex abgebildet hat. Es gibt jedoch mittlerweile einige andere Anbieter wie z. B. Searchmetrics oder SEOlytics. Damit man diese Tools in vollem Umfang nutzen kann, fallen jedoch in der Regel monatliche Mietkosten an. Um jedoch den reinen Sichtbarkeitswert gratis zu ermitteln und somit einen Vergleich zu anderen Websites zu bekommen, können Sie z. B. auf sichtbarkeitsindex.de den Wert beliebig vieler Websites kostenlos abfragen. Bei der kostenlosen Variante der Searchmetrics Essentials bekommt man noch einige Daten mehr. So können z. B. der Verlauf der „SEO Visibilty“ (der Sichtbarkeitsindex von Searchmetrics) über die letzten zwölf Wochen und einige Keyword-Rankings angezeigt werden (kostenloser Account nötig). Wenn Sie in der kostenlosen Website-Analyse noch weitergehen möchten, sollten Sie sich unbedingt die Starter-Version von SEOlytics einmal genauer ansehen. Diese wird seit Mitte Juni komplett kostenfrei angeboten. Den Verlauf der Sichtbarkeit kann man dort bis Anfang 2009 zurückverfolgen. Weiterhin werden z. B. auch alle gefundenen Keyword-Rankings und eine Ranking-Verteilung angezeigt. Die Daten, welche man von SEOlytics für lau bekommt, sind wirklich sehr umfangreich und für den „normalen“ Website-Betreiber völlig ausreichend. Die drei genannten kostenlosen Tools sichtbarkeitsindex.de, Searchmetrics Essentials und SEOlytics berechnen den jeweiligen Sichtbarkeitsindex zwar alle nach dem gleichen Grundprinzip, die ermittelten Werte sind jedoch unterschiedlich hoch und damit nicht vergleichbar. Man sollte deshalb den Sichtbarkeitsindex von Sistrix der Website A nicht mit der SEO Visibility von SEOlytics der Website B vergleichen, sondern sich bei Vergleichen an einer einzigen Metrik orientieren.

Bei der Betrachtung der Sichtbarkeitswerte sollte man immer beachten, dass die Tools zwar große Keyword-Datenbanken haben, jedoch bei Weitem nicht alle Suchanfragen berücksichtigen können, die für einen Website-Betreiber interessant sind. Bei Google werden jeden Tag sehr viele Suchbegriffe eingegeben, die vorher noch nie in den Suchschlitz getippt wurden. Diese Suchbegriffe sind i. d. R. auch nicht in den Keyword-Datenbanken der SEO-Tool-Anbieter vorhanden, weshalb man somit vorsichtig sein sollte, wenn man eine Website nur rein nach ihrem Sichtbarkeitsindex bewertet. Um aber einen direkten Vergleich zu einem Mitbewerber zu bekommen, reichen die vorgestellten kostenlosen Möglichkeiten allemal aus.

Seitwert & Co.

Die Idee, dass es ein kostenloses Online-Tool gibt, welches in Sekundenschnelle alle wichtige Faktoren einer Website bewertet und auf eine einfache Kennzahl herunterbricht, ist so alt wie das Internet selbst. Viele Webmaster träumen von Tools, die von der Auffindbarkeit bei Google über Social Signals bis hin zu einer Analyse des HTML alle Bereiche bewerten und das möglichst kostenlos und ohne dass man lange auf die Analyseergebnisse warten muss. Deshalb gibt es nicht nur eines dieser Tools, sondern gefühlt Hunderte. Sie heißen beispielsweise Seitwert.de, Seitenreport.de oder auch Webseitenbewertung.com. Man erkennt, dass die Tool-Anbieter vor allem das Registrieren von Keyword-Domains beherrschen, und vermutet, dass die kostenlose Website-Analyse möglicherweise nicht ganz das hält, was der Domainname verspricht. So gesehen bei Seitwert.de. In die Analyse fließen zwar recht unterschiedliche Faktoren ein, die aber allesamt recht belanglos sind. Der wahre Wert einer Website liegt doch sicher in der Anzahl der Besucher, dem Content, den Suchmaschinenrankings und ähnlichen Dingen und weniger darin, ob die Website für die Wörter im Title-Tag der Startseite bei Google gefunden wird (unsere Website wird z. B. für das Wort „eology“ aus unserem Title-Tag bei Google und Yahoo gefunden und das ist laut Seitwert.de richtig gut), ob der PageRank der Startseite hoch ist oder ob man sich bei Mister Wong einige Spam-Bookmarks gesetzt hat. Abzüge im „Seitwert“ gibt es beispielsweise, wenn Google nur wenige Backlinks für die Website ausweist oder wenn das HTML nicht W3C-konform ist. Google weist jedoch immer nur einen Bruchteil der tatsächlichen Backlinks aus und die meisten Websites haben irgendwo einen kleinen Fehler im HTML. Wer zufällig auf der Startseite keinen HTML-Fehler hat, bekommt bei Seitwert.de dann gleich Extrapunkte. Ist die Website deswegen stärker und mehr wert? Diese Beispiele zeigen, dass solche Seitenwert-Free-Tools sehr belanglose Daten für die Bewertung heranziehen und deshalb kritisch hinterfragt werden sollten. Zum Beurteilen und Messen von SEO-Maßnahmen eignen sie sich definitiv nicht.

Im Rahmen der Recherchen zu diesem Artikel wurde eine Website bei Seitwert.de, Seitenreport.de und Webseitenbewertung.com abgefragt. Die Ergebnisse waren Werte von 20, 55 und 65 Punkten, jeweils auf einer Skala von 0 bis 100. So liegt die Vermutung nahe, dass man nur lange genug nach einem kostenlosen Seitenwert-Tool suchen muss, um irgendwann bei 100 Punkten zu landen.

Give me Trust Baby! – Trust-Metriken abfragen

2004 stellten zwei Wissenschaftler der Universität Stanford und ein Mitarbeiter von Yahoo ein Konzept namens „Combating Web Spam with TrustRank“ vor. Dem PageRank wurde damals schon vorgeworfen, er spiegle nicht die wirkliche Qualität von Websites wider und sei zu leicht manipulierbar. Das Prinzip des TrustRank verfolgt dagegen das Ziel, etwas über die Vertrauenswürdigkeit von Websites auszusagen sowie Spam und damit Websites mit minderwertigen Inhalten zu identifizieren. Das vereinfachte Prinzip des TrustRank ist leicht erklärt: Es werden manuell einige Hundert Websites ausgewählt, die zu 100 % vertrauenswürdigen, redaktionellen Content bereitstellen (Seed-Sites). Alle Websites, die von diesen vertrauenswürdigen Websites verlinkt werden, sind nur einen Schritt entfernt und somit immer noch sehr trusty (vertrauenswürdig). Je weiter nun eine Website von diesen sogenannten Seed-Sites entfernt ist, desto höher ist die Wahrscheinlichkeit, dass es sich dabei um Spam und somit um eine als nicht vertrauenswürdig einzustufende Website handelt. Dieses Konzept rief natürlich auch Google auf den Plan. Der Suchmaschinenkonzern sicherte sich 2004 recht zeitnah den TrustRank als Marke und Algorithmus-Verfahren. Man kann also ziemlich sicher davon ausgehen, dass Google heutzutage die Vertrauenswürdigkeit einer Website nach diesem bzw. einem ähnlichen Prinzip bewertet.

Um bei Google gut gefunden zu werden, ist es demnach wichtig, dass Ihre Website von Google als vertrauenswürdig eingestuft wird. Um dies zu erreichen, benötigen Sie hochwertige Links von sogenannten Trust- oder Authority-Sites (vertrauenswürdige Websites). Um herauszufinden, wie „trusty“ eine Website aktuell eingestuft wird, bietet sich eine Abfrage mit dem kostenlosen Open Site Explorer von SEOmoz an (opensiteexplorer.org – für mehrere Abfragen am Tag ist ein kostenloser Account nötig). Die SEOmoz-Spezialisten aus Seattle haben einen eigenen Linkgraphen namens „Mozscape“ entwickelt, welcher dem einer Suchmaschine wie Google sehr ähnelt. Dieser Linkgraph ermöglicht es, eigene Berechnungen durchzuführen, um herauszufinden, warum eine Website gut gelistet ist oder eben nicht. So gibt es auch eine eigene „MozTrust“-Metrik, welche das Prinzip des TrustRank anwendet. Diese Metrik ist jedoch nur in der kostenpflichtigen SEOmoz-PRO-Variante abrufbar. In Form der Domain- und Page-Authority wird der MozTrust aber mit anderen Werten kombiniert und so ergibt sich eine allgemeine Kennziffer, die aussagt, inwieweit eine Website als Autorität eingestuft werden kann. Sowohl die Domain-Authority als auch die Page-Authority sind für jede beliebige Website über den Open Site Explorer kostenlos abrufbar.

Abbildung 5 zeigt, dass die Authority-Werte durchaus in der täglichen SEO-Arbeit verwendet werden können. Die Domain-Authority gibt die Stärke für die komplette Domain an und die Page-Authority die einer bestimmten Unterseite. Wenn es nun darum geht, einen vertrauenswürdigen Link für Ihre Website zu bekommen, können Sie mithilfe des Open Site Explorer schnell erkennen, ob ein Link wertvoll ist oder weniger. Ähnlich wie beim PageRank errechnet sich der Wert der Authority exponentiell. Es ist also leichter, von 20 auf 30 Punkte zu kommen als von 70 auf 80. Auch wenn das Tool hauptsächlich für den US-amerikanischen Markt konzipiert ist, eignet es sich für deutsche Domains. Wie bei allen SEO-Tools und Statistiken sollte man sich jedoch nicht nur auf diese eine Kennziffer verlassen, wenn es um die Bewertung der Stärke einer Domain geht.

Hilfe, mein Alexa Rank fällt!

Der Alexa Traffic Rank oder kurz Alexa Rank ist eine populäre Kennzahl, die etwas darüber aussagen soll, wie viele Besucher eine Website hat. Alexa bringt damit Websites in eine Rangfolge, die nach Traffic sortiert ist. Je niedriger der Rank ist, desto besser, weil die Website aufgrund der Trafficdaten, die Alexa sammelt, am meisten Besucher hat. Mit einem Alexa Rank von 1 ist momentan Google.com weltweit an der Spitze und hat damit Facebook und YouTube auf die Trafficplätze verwiesen. Der Alexa Rank von eology.de sagt mit Rang 262.425 aus, dass es 262.424 Websites weltweit gibt, die mehr Traffic haben als eology.de

Weil man mit wenigen Mausklicks einen Trafficvergleich mit den Mitbewerbern ziehen kann, ist der Alexa Rank sehr beliebt bei Webmastern, auch um den Erfolg von SEO-Maßnahmen zu beurteilen. Die Theorie dahinter ist, dass durch SEO schließlich Rankings verbessert werden, dadurch mehr Besucher auf die Website kommen und dadurch der Alexa Rank ansteigt. Viele Website-Betreiber schielen deshalb regelmäßig auf den Alexa Rank und sind geschockt, wenn der eigene Wert fällt. Dann wird nach Lösungen gesucht, wie man den Rank wieder verbessern kann – eine Kennzahl entwickelt ein Eigenleben. Gibt man bei Google „Alexa Rank“ ins Suchfeld ein, taucht unter den Vorschlägen direkt der Suchbegriff „Alexa Rank verbessern“ (Abbildung 6) auf, was zeigt, wie häufig sich die Menschen mit diesem Problem beschäftigen.

Dabei ist der Alexa Rank eigentlich gar keine besonders brauchbare Kennzahl. Die Stärke einer Website kann man damit nämlich nur sehr schlecht beurteilen. Hintergrund ist, dass Alexa die Trafficdaten mit der hauseigenen Alexa-Toolbar gewinnt, die man sich als Browser-Add-On installieren kann. Das machen natürlich nur sehr wenige Menschen und hauptsächlich technik- bzw. internetinteressierte Surfer. Alexa-Daten beruhen deshalb nicht auf einer repräsentativen Stichprobe. Alexa hat diesen Schwachpunkt zwar erkannt und ergänzt die Toolbar-Daten seit einigen Jahren um Daten aus weiteren Trafficquellen, zu denen allerdings keine genauere Auskunft gegeben wird. Jedoch sind die Toolbar-Daten weiterhin in der Berechnung enthalten. Insofern ist der Alexa Rank keine valide Kennzahl, um die Stärke einer Website sicher beurteilen zu können, und schon gleich gar nicht, um die SEO-Stärke bzw. die Auffindbarkeit im organischen Bereich von Google messen zu können.

Dafür ist der Alexa Rank sowieso nicht geeignet, da in dieser Kennzahl keine Unterscheidung zwischen den Besucherquellen gemacht wird. Man kann keine Aussage darüber treffen, wie groß der Anteil der Besucher durch bezahlte Klicks, direkte Website-Zugriffe, verweisende Websites oder aus dem organischen Suchmaschinenbereich ist, weil einfach nur gemessen wird, wie viele Besucher auf die Website kommen, aber nicht woher.

Die eigene SEO-Stärke beurteilen: Sehen sie sich den organischen Traffic an!

Die hier vorgestellten Kennzahlen, wie z. B. der Sichtbarkeitsindex oder die SEOmoz-Domain-Authority, sind zwar ideal dafür geeignet, sich einen schnellen Überblick über andere Websites zu verschaffen oder seine Website mit anderen zu vergleichen, aber nicht, um den Erfolg der eigenen SEO-Aktivitäten zu beurteilen. Dafür gibt es eine bessere Methode, denn diese Kennzahlen werden auch für die eigene Website mit Fremddaten der Tool-Anbieter ermittelt. Besser wäre es doch, die eigene Website mit den korrekten eigenen Daten auszuwerten. Derartige Daten liefern Webanalyse-Systeme wie z. B. Google Analytics. Für die Analyse der eigenen Website sollte daher ein solches Webanalyse-Tool herangezogen werden, mit dem die Besucherzahlen von organischen Suchergebnissen über einen Zeitverlauf ausgewertet werden können. Dieser organische Traffic sind die Besucher, die über unbezahlte Suchergebnisse bei Google auf Ihre Website kommen. Bezahlte Besucher über AdWords sind darin nicht enthalten. Auch sämtlicher Traffic aus anderen Kanälen, wie z. B. Affiliate, Direktzugriffe oder Ähnliches wird dort herausgerechnet. Analysemöglichkeiten des organischen Traffics bieten alle modernen Webanalyse-Tools, allen voran Google Analytics (Besucherquellen > Quellen > Suche > Organisch).

Kennzahlen wie der Sichtbarkeitsindex sollten für die Analyse der eigenen Website daher immer hinterfragt und mit eigenen Daten nachvollzogen werden, denn der Sichtbarkeitsindex ist beispielsweise nur ein Näherungswert. Ein starker Anstieg des Sichtbarkeitsindex kann beispielsweise dadurch verursacht werden, dass man mit einem Keyword von Position elf auf Position zehn und damit auf die erste Suchergebnisseite klettert. Das gibt mehr Punkte für den Sichtbarkeitsindex. Ob man auf Position elf oder auf Position zehn steht, hat teilweise aber kaum messbare Auswirkungen auf die Besucherzahlen. Werden für dieses Keyword im oberen Bereich der Google-Suchergebnisseite beispielsweise viele auffällige Treffer angezeigt, z. B. Video-Treffer, lokale Ergebnisse oder Google-Shopping-Treffer, bleibt die Aufmerksamkeit der Suchenden aller Wahrscheinlichkeit nach im oberen Bereich der Seite und die unteren Treffer werden nicht wahrgenommen oder angeklickt. Insofern verursacht das Position-10-Ranking zwar zusätzliche Punkte im Sichtbarkeitsindex, aber evtl. nicht im Website-Traffic.

Website-Betreiber, die den Sichtbarkeitsindex ihrer Website regelmäßig beobachten, sind allerdings schnell besorgt, wenn dieser abfällt. Oft zu Unrecht. Wenn der Sichtbarkeitsindex Ihrer Website fällt, sollten Sie sich zuerst im Webanalyse-Tool vergewissern, ob sich diese Entwicklung auch im organischen Traffic nachvollziehen lässt, und erst dann über weitere Schritte nachdenken, die ggf. gar nicht nötig sind. Der eigene organische Traffic ist eine ideale Kennzahl, um die Positionierung Ihrer Website bei Google einzuschätzen und um beurteilen zu können, ob die getroffenen SEO-Maßnahmen Früchte tragen.

Fazit

Um eine Website und deren SEO-Stärke zu bewerten, gibt es heutzutage Dutzende Möglichkeiten. Vielen Metriken sollte allerdings keine Beachtung geschenkt werden, allen voran dem veralteten PageRank, dem Alexa Rank oder den sinnlosen Seitwert-Abfragen. Wenn es um die Bewertung der eigenen Seite geht, ist Ihr Webanalyse-Tool das Maß aller Dinge. Kein SEO-Tool der Welt kann den tatsächlichen organischen Traffic eins zu eins abbilden. Von daher sollten Sie mit Ihren Daten bestens vertraut sein, um den SEO-Erfolg zu bewerten. Wenn es jedoch um eine einfache und schnelle Analyse der Wettbewerbssituation geht, bieten sich die SEO-Tools Sistrix, Searchmetrics Essentials oder SEOlytics in den kostenlosen Versionen an. Für tiefer gehende und professionelle Website-Analysen sollten dann aber doch die kostenpflichtigen und leistungsstärkeren Pakete dieser Tool-Anbieter genutzt werden und die Ergebnisse ggf. um weitere Daten, z. B. aus den LinkResearch-Tools ergänzt werden. Eine umfassende Übersicht über die verschiedenen Tools finden Sie in Website Boosting 3/4 2011 und einige Tipps zum Umgang damit in der vorliegenden Ausgabe.

Es sollte jedoch nicht der Fehler gemacht werden, alles auf den Sichtbarkeitsindex oder die Domain-Authority herunter zu brechen. Erst die Gesamtheit der verschiedenen Kennzahlen ergibt ein abgerundetes Bild von der Stärke einer Website – denn SEO ist mehr als nur eine einzige Ziffer!