Teil 3: SEO-Tools richtig nutzen – ein Link ist ein Link ist ein Link? Never!

Mario Fischer
Mario Fischer

Mario Fischer ist Herausgeber und Chefredakteur der Website Boosting und seit der ersten Stunde des Webs von Optimierungsmöglichkeiten fasziniert. Er berät namhafte Unternehmen aller Größen und Branchen und lehrt im neu gegründeten Studiengang E-Commerce an der Hochschule für angewandte Wissenschaften in Würzburg.

Mehr von diesem AutorArtikel als PDF laden

Backlinks, also Links, die von anderen Domains auf die eigene zeigen (auch oft als „Inbound Links“ bezeichnet) sind für ein gutes Ranking vor allem bei Google meist unverzichtbar. Findet die Suchmaschine viele Treffer für ein Suchwort oder eine Suchphrase, entscheiden die Struktur und die Qualität dieser eingehenden Links. Da dies seit vielen Jahren in der SEO-Szene bekannt ist, werden erwartungsgemäß viele dieser wertvollen Links künstlich aufgebaut durch Kauf, Miete, manuellen oder automatisierten Kommentarspam jeglicher Art oder gar nicht mal mehr so selten auch durch Hacken von Webservern. Einige Spammer ziehen sogar täglich ganze Domainnetzwerke hoch, die durch gegenseitige Verlinkung wichtig wirken wollen. Kein Wunder, dass die Suchmaschinenbetreiber eine Notbremse nach der anderen ziehen, um gute Links von schlechten bzw. manipulierten zu unterscheiden. Umso wichtiger ist und wird es, die Qualität von Backlinks beurteilen zu können. Im dritten Teil unserer SEO-Tool-Reihe zeigen wir Ihnen, wie Sie dies ohne allzu großen Aufwand bewerkstelligen.

Entgegen den gängigen Erwartungen gibt es „den“ einzigen Rankingalgorithmus bei Google wahrscheinlich gar nicht. Experten gehen davon aus, dass je nach Werthaltigkeit eines Keywords (oder einer Keyword-Kombination, also Phrase) sich die Gewichtung der weit über 200 Kriterien immer mehr in Richtung derer verschiebt, die mit externen Signalen zu tun haben, wie eben z. B. Backlinks sie darstellen. Mit anderen Worten: Für wenig umkämpfte Suchworte wie „Gummimuffenhalterung“ oder „Lebensmittelsaugring“ reicht es, ein wenig Optimierung auf einer einzelnen Seite zu betreiben. Für Begriffe wie „Schnupfenspray“ oder „Winterreifen“ genügt dies in der Regel nicht mehr. Über die Gebote und bezahlten Klickpreise im AdWords-System hat Google wohl mittlerweile eine weltweit gültige Liste aller wirtschaftlich nutzbaren Worte in allen denkbaren Sprachen. Einem Suchwort einen wirklich konkreten Wert zuzuordnen, dürfte also kein Problem darstellen. Umgekehrt wird bei AdWords für bestimmte Keywords deswegen viel Geld geboten und bezahlt, weil man mit deren prominenter Listung viel Geld verdienen kann. Bei umsatzträchtigen Suchworten und Branchen, die primär in der Vermittlung von Dienstleitungen und Produkten tätig sind, wird daher mit harten (Link-)Bandagen gekämpft. Ohne qualitativ hochwertige Backlinks führt in den organischen Ergebnissen nach gängiger Meinung kein Weg nach oben. Doch wie beurteilt man diese ominöse „Qualität“?

Link-Anatomie

Um zu verstehen, wie die unterschiedlichen Kennzahlen und Funktionen der gängigen SEO-Tools zu nutzen sind, muss man zunächst einen kleinen Ausflug in die Welt der Backlinks machen.

Macht man sich etwas ausführlichere Gedanken über die Bewertung von Links, stößt man schnell auf ein Problem: Je länger man nachdenkt, desto mehr Einflussfaktoren findet man, die tatsächlich den Wert beeinflussen könnten. Das beginnt bei einfachen Parametern: Wohin zeigt der Link? Auf die Startseite einer Domain, was wohl bei den meisten Links, die freiwillig gesetzt werden, der Fall ist? Oder zeigt er „deep“, also auf eine spezielle Unterseite? Welchen Text trägt der Link (Textanker) und wurde ein Title für ihn hinterlegt? Hat die linkgebende Seite oder Domain einen thematisch passenden Bezug? Suchmaschinen können das über einfache Wortvergleiche erkennen. Je mehr sich die verwendeten Begriffe überdecken, desto näher ist dieser vermutete Bezug. Trägt der Link das Attribut „nofollow“, sagt der Linkgeber damit: Mit der Empfängerseite habe ich nichts zu schaffen, den Link habe ich nicht selbst gesetzt (z. B. in Blogkommentaren oder Foren), oder der Link wurde verkauft (jede Art von Werbung) und soll keinen PageRank vererben. 

Dass Suchmaschinen möglicherweise auch darauf achten, aus welchem Inhaltsbereich ein Link kommt, gilt schon länger als relativ gesicherte Erkenntnis. Auch, ob ein Link sich über der sog. Falz befindet, also im sofort ohne Scrollen sichtbaren Bereich. Um zu prüfen, was sofort sichtbar ist, stellt Google sogar ein eigenes Tool zur Verfügung (http://as-abovethefold.appspot.com). Auch die Markierung von Suchbegriffen bei der Sofortvorschau der Suchergebnisseite zeigt, dass man die tatsächliche Lage eines Objektes im Browser trotz CSS und anderer Verschiebetechniken ganz gut im Griff hat. Es macht also höchstwahrscheinlich einen nicht unerheblichen Unterschied, ob ein externer Link direkt aus dem Fließtext im Contentbereich kommt, aus der Navigation, der Sidebar, aus einer Linksammlung oder gar aus dem Footer (Fußbereich) der Seite. Letzterer ist nach einhelliger Meinung der schlechteste Platz für einen Link bezüglich der Übertragung von Wert bzw. „Linkpower“.

Weitere domainbezogene Metriken sind z. B.:

  • Anzahl der Backlinks (v. a. Domain- und IP-C-Popularität)
  • Trust (wie weit eine Domain hinsichtlich des gesamten Linkgraphen von hoch vertrauenswürdigen Domains „entfernt“ ist)
  • PageRank (Googles linkbasierte Berechnung der Wichtigkeit eines Dokuments)
  • Thematische Ausrichtung der Domain (zentriert oder stark variierend)
  • Sitetyp (z. B. Blog, Forum, Shop, normale Website)
  • Spam-Flags (liegt eine interne Rankingstrafe bei der Suchmaschine vor)

Ergänzt werden muss diese Betrachtung um Metriken der linkgebenden Seite:

  • PageRank
  • Hierarchische Einsortierung der Seite in die Linkstruktur einer Domain (je „näher“ an der Startseite, desto besser)
  • Anzahl abgehender Links, nach intern und extern
  • Verhältnis von intern zu extern eingehenden und ausgehenden Links
  • Position des Links im Quelltext (je weiter oben, desto besser)
  • Seitenbereich des Links (z. B. Navigation, Sidebar, Footer, im Fließtext oberhalb und unterhalb der Falz) 
  • Thematische Ausrichtung der linkgebenden Seite
  • Einzelseitentyp (z. B. in einem integrierten Blog- oder Forenbereich)
  • Spam-Flags auf Seiten-, Verzeichnis- oder Keyword-Ebene
  • Nähe des Links zu anderen externen Links, die ggf. sogar zu schlechten Seiten führen
„Dummerweise weiß Google mittlerweile, dass wir mittlerweile wissen …“

Nach einem kurzen Aufriss der möglichen Beurteilungskriterien muss man sich als Nächstes vergegenwärtigen, dass eine solche Betrachtung nicht statisch sein darf, sondern dass die einzelnen Kriterien sich auch gegenseitig beeinflussen. Sind 40 eingehende Links mit dem Hauptkeyword auf dem Ankertext bei 150 wirklich unterschiedlichen Linkquellen (IP-C-Class-Popularität) vielleicht gerade noch o. k. (im Beispiel hier 27 Prozent, siehe Abbildung 3), kann sich das Bild verschärfen, wenn die Links nur von vergleichsweise jungen Domains kommen. Hat dann noch ein nennenswerter Anteil dieser IP-C-Class-Domains mit dem Keyword-Ankertext eine Strafe von Google, kann die so angelinkte Domain selbst eine Strafe bekommen. Bezöge man den Anteil Links mit Ankertext nicht auf die Links aus unterschiedlichen IP-C-Class-Netzen, sondern auf die Gesamtzahl an Links (im Beispiel 1.000 Links), würde sich gar kein Unterschied in den Kennzahlen ergeben. Beide Male läge der Wert bei 4 Prozent (40 Links mit Ankertext bei 1.000 Links). An diesen eigentlich nur oberflächlichen Gedankenspielen erkennt man recht gut, dass die Bildung verlässlicher Kennzahlen in diesem Bereich bei Weitem nicht trivial ist und weit weg von einer einfachen Aufsummierung oder Durchschnittsbildung.

Manuell und mit eigenen Recherchen kann man sich schnell ein Bild darüber machen, ob eine wirklich thematische Nähe zum Linkgeber vorhanden ist oder ob die Position des Links und dessen Umfeld passend sind. Aber für viele der anderen Kennzahlen kommt man bei einer größeren Menge an Backlinks zu Fuß in der Regel nicht sehr weit und muss sich auf das verlassen, was Toolanbieter dem Analytiker zur Verfügung stellen, und vor allem darauf, wie diese ihre Kennzahlen verdichten – und dass sie es sorgfältig genug tun.  

Wir haben 24 SEO-Experten gefragt, welche drei Linkmetriken für sie die wichtigsten sind. Dabei hat sich gezeigt, dass die am meisten genannten Kriterien wie „thematische Nähe“, „Linkposition“, „rankt eine linkgebende Seite selbst für die Keywords aus deren Title“ oder „wirkt die Seite seriös und hochwertig“ bisher von vielen SEO-Tools noch nicht oder nur unzureichend abgebildet werden (Abbildung 4). Dabei ist natürlich nicht gesagt, dass die von den Experten genannten Metriken auch tatsächlich nur deswegen wichtig(er) sind, weil sie häufiger oder mehrfach genannt wurden.  

Unsere typischen SEO-Fragen sind diesmal auf das Thema Linkbewertung fokussiert und lauten:

  1. Wie verschafft man sich schnell einen Überblick über die strukturelle Zusammensetzung von Backlinks?
  2. Wie verschafft man sich einen Überblick über die Qualität der Backlinks?
  3. Wie findet man die qualitativ hochwertigen Links?

Während die Fragen 1 und 2 in der Regel eher für die eigene(n) Domain(s) interessant und wichtig sind, hilft die Beantwortung der Frage 3 auch, gute Backlinkmöglichkeiten zu finden. Hierzu analysiert man dann meist Domains von Mitbewerbern oder solche, die für wichtige Keywords gut ranken, und kann im Nachgang versuchen, dort ggf. einen wertvollen Link für sich selbst zu bekommen.

Hinweis

Es würde bei Weitem den Rahmen sprengen, bei allen Tools wirklich alle Funktionen hinsichtlich der analytischen Linkbewertung oder der Filterung von Links identisch darzustellen. Daher haben wir auch diesmal versucht, die Beispiele im Tooleinsatz zu variieren, um möglichst viele Ideen für den praktischen Einsatz zu geben, ohne sich ständig zu wiederholen zu müssen. Die folgenden Ausführungen sind also weniger als eine vergleichende Bewertung zu verstehen, sondern eher als (teilweise toolübergreifende) Anleitung, wie man toolgestützt effizient vorgehen kann.

Frage 1: Wie verschafft man sich einen Überblick über die strukturelle Zusammensetzung von Backlinks?

LinkResearchTools

Die LinkResearchTools (LRT) sind, wie der Name vermuten lässt, ausschließlich auf Linkmetriken ausgerichtet. Derzeit stellt das Tool etwas über 90 unterschiedliche Kennzahlen für Links bzw. Linkquellen zur Verfügung. Die hohe Anzahl deutet an, dass es hauptsächlich auf Experten als Zielgruppe ausgerichtet ist und eine vergleichsweise hohe Einarbeitungszeit erfordert, wenn man es tatsächlich richtig nutzen möchte bzw. die Vielzahl der Kennzahlen auch richtig deuten will. Derzeit gibt es 17 unterschiedliche Module, mit denen sich linkbasierte Analysen fahren lassen.

Für einen Überblick über die eigene Linkstruktur oder die einer beliebigen anderen Domain startet man am besten mit dem Modul „Quick Backlinks“. Dort erhält man bereits nach wenigen Sekunden einen Report, der die wichtigsten Kennzahlen visualisiert und weiter unten die einzelnen Linkquellen, ergänzt um Kennzahlen, listet. 

Wie in Abbildung 6 zu sehen ist, kann man die dargestellte Verteilung als Diagramm und Tabelle über die Reiterlinks oben (rot markiert) als Übersicht, als Linkstatus, nach Linktyp, Deeplink-Verhältnis, Top-Level-Domains und unter „More“ noch nach Ländern, IP- und IP-C-Adressen sowie nach Domains anzeigen lassen.

Unter der Übersicht werden dann, wie erwähnt, die einzelnen URLs gelistet (siehe Abbildung 7).

Die Einträge lassen sich auch nach der Ziel-URL gruppieren. Dies macht die Darstellung je nach Analysezweck etwas übersichtlicher. Für eine schnelle Übersicht ist auch das Modul „QDC“ (Quick Domain Compare, also ein schneller Domainvergleich) gut geeignet, das einen direkten Vergleich von bis zu fünf Domains auf Basis der wichtigsten SEO-Kennzahlen ermöglicht.

SEOlytics

SEOlytics arbeitet in der Linkübersicht mit zwei eigenen Kennzahlen. Zum einen ist das der „Citation Flow“, der PageRank-Berechung nachempfunden. Er ist umso höher, je mehr Links auf ein Ziel eingehen und je mehr diese Quellen selbst wiederum verlinkt sind. Er kann Werte zwischen 0 und 100 annehmen und ist damit sehr viel feingranularer als z. B. der von Google publizierte (in der Regel) nur einstellige Wert. Die andere Kennzahl ist der „Trust Flow“. Hier wird berechnet, wie nahe sich die jeweilige Domain vom Linkgraphen her gesehen an hoch vertrauenswürdigen Quellen befindet. Ein Beispiel: Geht man davon aus, dass die Website der NASA (nasa.gov) u. a. die Domain A anlinkt. Diese linkt wiederum Domain B an und diese dann Domain C. Domain B ist also rechnerisch nur zwei Links von der NASA entfernt und hat damit einen höheren Trust als Domain C, die noch einen Link weiter entfernt ist. Es konnte mathematisch bereits vor vielen Jahren nachgewiesen werden, dass sich solche „Link-Entfernungsmessungen“ hervorragend dazu eignen, Signale für Spamseiten zu schärfen. Dabei geht man davon aus, dass beispielsweise Websites wie die der NASA, die des Weißen Hauses oder große und hochseriöse Nachrichtenseiten wie NBC, ABC und andere ihrerseits nur Links auf seriöse Quellen setzen. Diese Quellen wiederum werden höchstwahrscheinlich auch nicht auf Spamseiten linken. Man kann sich das so vorstellen, dass mit jeder Hierarchiestufe des gesamten Linkgraphen die Wahrscheinlichkeit für das Setzen von Spamlinks zunimmt. Die Berechnung von damals zeigte, dass die manuelle Festlegung weniger Hundert hoch vertrauenswürdiger Sites und die anschließende Entfernungsmessung einer Domain zu diesem Set an Domains recht verlässliche Signale liefern kann. Erhält eine Domain also einen Link (dabei sind die Anzahl und das Thema zweitrangig) von einer Domain mit hohem Trust, vererbt sich ein Teil dieses Vertrauensbonus ähnlich wie beim PageRank auf die linkempfangende Domain. Man geht davon aus, dass Trust domainorientiert weitergegeben wird und nicht (einzel-)seitenbasiert. Allerdings weiß natürlich niemand, welche Domains zu diesem Set von „Trusted Domains“ gehören. Daher verwendet man bei der Berechnung meist Domains, bei denen man davon ausgeht, dass diese dazugehören würden. Der Trust Flow bei SEOlytics wird ebenso wie der Citation Flow mit Werten von 0 bis 100 angegeben. 

Auch den wichtigen Zuwachs an Backlinks zeigt SEOlytics von 2007 beginnend bis zum aktuellen Zeitraum an, zusammen mit Kennzahlen für jeden einzelnen Monat. Steigt die Anzahl an Links zu einem bestimmten Zeitpunkt ungewöhnlich stark an und findet man auf der Site keinen Hinweis, aus welchem Grund dies passiert sein könnte (z. B. kann ein guter Blogbeitrag oder neuer und nützlicher Content für Links verantwortlich sein), verbirgt sich als Grund dahinter meist das manuelle Nachhelfen über den Sitebetreiber oder durch eine SEO-Agentur. 

In der Linkübersicht findet man noch weitere Visualisierungen wie z. B. die ebenfalls wichtige Deeplink-Ratio als Kuchengrafik.

Sistrix

Die Sistrix-Toolbox hat ein eigenes Modul für Links. Hier gibt es neben einem Kennzahlenüberblick viele Detailansichten und -auswertungsmöglichkeiten. Im Überblick erhält man zusammengefasste Kennzahlen, die zum Teil auch grafisch gut aufbereitet sind (Abbildung 10). Besonderes Augenmerk gilt hier neben der Zusammensetzung des Linkprofils nach Hosts, Domains, IP-Adressen und IP-C-Class („Netze“) dem Sichtbarkeitsindex der verlinkenden Hostnamen (die Balkengrafik in Abbildung 10). Die Balken sollten nach rechts hin abfallen, d. h., dass umso weniger Backlinks vorhanden sein sollten, je besser (exakt: besser sichtbarer bzgl. wichtiger Keywords) die verlinkende Domain ist. Das klingt zunächst paradox, entspricht aber genau einem natürlichen Backlinkprofil. In der Regel kommen auf viele Links von eher „kleineren“ eben nur wenige von „großen“ Domains. Ergibt sich hier eine Asymmetrie, werden Suchmaschinen schnell misstrauisch. Sistrix stellt weitere Ansichten für die Linkentwicklung, neue Links, Hostnamen und Domains, Linkziele und -texte, eine Sortierung nach Ländern und Top-Level-Domains sowie nach Social Signals und Autoren zur Verfügung.

Searchmetrics Essentials

Searchmetrics zeigt die Strukturen der Backlinks übersichtlich visualisiert auf und lässt einen Blick mit vielen Facetten zu. So ist es neben der Übersicht (Abbildung 11) möglich, das Backlinkprofil in gesonderten Ansichten auch nach Branchen (z. B. Bekleidung, Gesundheit, Immobilien etc.), nach Seitentypen (z. B. Blog, News, Shop, Forum), der Kennzahl „Page Strength“ (errechnet aus Menge und Qualität aller Backlinks, „starke” Domains mit vielen eigenen Backlinks werden dabei höher gewichtet), verweisenden Domains, IP-Adressen, Top-Level-Domains (z. B. .de, .com, .net, .org etc.) oder Ländern zu sortieren. Übersichtskennzahlen für die IP- und IP-C-Popularität findet man im Menü „Backlinkprofil“. Hilfreich ist hier die zumindest grobe Zuordnung der Backlinks zu Branchen (in der Grafik als „Top-Branchen“ ausgewiesen. Daran sieht man zwar noch nicht, ob tatsächlich eine thematische Nähe gegeben ist, aber zumindest, ob das Linkprofil eine gewisse Natürlichkeit aufweist. Bekommt ein Shop für Schuhe Links aus eher dafür unpassenden Branchen, ist Vorsicht geboten. Dies wäre ein deutlicher Hinweis, dass man hier genauer ins Detail gehen sollte.

Frage 2: Wie verschafft man sich einen Überblick über die Qualität der Backlinks?

LinkResearchTools

Wenn man etwas tiefer in die Linkbeurteilung eintauchen möchte, stellen die LinkReseachTools wie oben bereits erwähnt die bei Weitem meisten Kennzahlen zur Verfügung. Die bloße Anzahl darf aber nicht darüber hinwegtäuschen, dass man selbst genügend Know-how mitbringen sollte. Dazu kommt, dass nicht alle dieser Kennzahlen wirklich voneinander unabhängig sind bzw. die Lieferanten der vom Toolanbieter zugekauften Kennzahlen zum Teil ähnliche oder gleiche Quellen zur Berechnung ihrer Zahlen stützen. Zudem kann es vorkommen, dass sich die einzelnen Kennzahlen für eine Backlinkquelle durchaus auch widersprechen. Wer tatsächlich verantwortungsvoll analysieren möchte oder muss, sollte daher das Zahlenmaterial auch immer vorher auf Plausibilität prüfen bzw. gezielt nach Widersprüchlichkeiten suchen und diesen bei Auftreten gesondert nachgehen.

Für die Beurteilung des Qualitätsprofils der Links eignet sich das Analysemodul „BLP“ (Backlink Profiler) und „Juice“ recht gut. Abbildung 12 zeigt, welche Metriken BLP liefern kann.

Die Auswertung wird allerdings zunehmend langsamer, je mehr Metriken man auswählt. Ein jeweils aktualisierter und farblich veränderter Zeitbalken warnt davor, zu viele Zahlen auf einmal abzurufen. Beim Modul „Juice“ kann man bis zu 2.000 URLs eintragen bzw. hochladen und dann mit 19 unterschiedlichen SEO-Metriken auswerten bzw. versehen lassen (z. B. die Anzahl Links auf die verlinkende Seite und Domain, IP-orientierte Kennzahlen und neben weiteren auch einige tooleigene, mit dem Namen des Anbieters  – „Cemper“ – versehene Kennzahlen). Es eignet sich sehr gut für bereits vorliegende Listen mit Backlink-URL-Daten zur Beurteilung, welche linkgebenden Seiten tatsächlich gute Metriken aufweisen, oder im Gegenteil, auf welche man besonders achten bzw. von welchen man die Finger lassen sollte. In dem Modul ist übrigens eine Schnell- oder Detailanalyse möglich.  

SEOlytics

Im SEOlytics-Tool kann man sich im Linkbereich in der Übersicht einen recht guten Überblick über die Qualität der Backlinks machen. Die nach Citation und Trust Flow nach Wichtigkeit sortierten Links stehen oben, ergänzt um den Linktext und das Datum des letzten Crawlvorgangs. Im Modul „Backlinks“ stehen dann auch detailreicher alle gefundenen Links, deren historische Entwicklung, alle Linktexte und Linkziele zur Verfügung. Dazu gibt es jeweils ein Kuchendiagramm zur schnellen Erkennung möglicher Asymmetrien und darunter dann die einzelnen Daten, zu denen jeweils auf der linken Seite passende Schnellfilter eingeblendet werden.

Auch bei SEOlytics zeigen sich Inkonsistenzen in der Datenaufbereitung bzw. -darstellung. Während beispielsweise für den Linktext „Mario Fischer“ und die Domain „websiteboosting.com“ in der Übersicht eine Häufigkeit von 2,48 Prozent ausgegeben wird, zeigt dieselbe Grafik einen Klick weiter unter dem Menüpunkt „Linktexte“ den Wert 3,85 Prozent. Der Linktext „websiteboosting“ wird einmal mit 4,32 und dann wieder mit 9,22 Prozent Häufigkeit ausgegeben (Abbildung 14). Das sind zwar noch keine extrem dramatischen Abweichungen, aber bei einem sorgsamen Umgang mit Daten sollten solche Ausrutscher nicht passieren bzw. lassen darauf schließen, dass an unterschiedlichen Stellen mit unterschiedlichen Basisdaten oder Algorithmen gearbeitet wird.   

Eine grafische Aufbereitung der durchaus aussagekräftigen Kennzahlen Citation und Trust Flow über alle Links hinweg stellt SEOlytics bislang noch nicht zur Verfügung. Hilfreich wäre eine solche Darstellung sicherlich für eine mehr überblicksartige Beurteilung der Gesundheit von Backlinkstrukturen – oder eben auch als Alarmsignal. Seine Stärken spielt der Toolanbieter dann allerdings für detailliertere Auswertungen von Linkdaten über die sehr benutzerfreundlichen und durchdachten Filtermöglichkeiten aus, wie weiter unten noch gezeigt wird.

Sistrix

In der Sistrix-Toolbox lässt sich der Linkverlauf (Zu- und Abnahme von Links) verfolgen und man kann sich auch gezielt neue Links anzeigen lassen, um diese einer genaueren Analyse zu unterziehen. Dort klickt man die Domains bzw. Hostnamen an, für die man sich interessiert, und aktiviert mit dem Button „Linkdetails im Expertenmodus anzeigen“ die erweiterte Ansicht.

Im Linkmodul steht jeweils eine Ansicht nach Hostnamen, Domainnamen, Linkzielen, Linktexten, Ländern und Top-Level-Domains, Social Signals und Autoren zur Verfügung. Die Linkdaten lassen sich über ein Exportmodul im CSV-Format auf den eigenen Rechner ziehen. Die meisten der interessanten und wichtigen Kennzahlen werden aber beim Export nicht mit übergeben – lediglich die linkgebende URL, die Domain und der Host, die empfangende URL und ihre Hostadresse sowie der Linktext, das Land und die Top-Level-Domain. Zudem sollte man hier Vorsicht walten lassen, denn das Feld „tld“ enthält neben Einträgen wie „de“ oder „com“ auch teilweise abgeschnittene IP-Adressen, also Zahlen. Für eigene Analysen in Excel scheinen die Daten wegen des Fehlens der eigentlich interessanten Kennzahlen daher eher weniger geeignet. Dass u. a. gerade eine für die Linkbeurteilung wichtige Kennzahl, der Sistrix-Sichtbarkeitsindex, für die linkgebende Domain nicht mit übertragen wird, ist bedauernswert und hier sollte der Anbieter schnellstens Abhilfe schaffen. Da die Anzahl der bei Google indexierten Seiten einer Domain als Kennzahl fehlt (ein deutliches Zeichen, dass diese Domain selbst eine Strafe hat), könnte man nämlich zumindest ersatzweise über einen Sichtbarkeitsindex von 0 manuell nachprüfen, ob hier ein Link aus einer schlechten Nachbarschaft (BadRank) stammt und man ihn ggf. besser entfernt oder entfernen lässt.

Lässt man die Links im „Expertenmodus“ anzeigen – dazu muss vorher die Detailanalyse für eine Domain aktiviert werden –, zeigt Sistrix viele nützliche Kennzahlen an. Für die Beurteilung eines Links ist z. B. die Domainpopularität oder die IP-C-Class-Popularität der linkgebenden Domain wichtig. Hier erkennt man, ob die Linkquelle selbst viele Links hat und ob diese breit im Netz verteilt sind. Je mehr, desto besser. In dieser Onlineansicht wird für jeden Link der bekannte Sistrix-Sichtbarkeitsindex dann mit ausgegeben. Dies hilft zu erkennen, ob die linkgebende Domain auch selbst gut rankt.

Falls Daten dazu vorhanden sind, ist auch hinterlegt, wann der Link zuletzt gefunden wurde. Bei unserem Test waren die meisten Einträge hier allerdings noch leer. Ebenso sind vergleichsweise viele Felder bei „Ebene“ (von welcher Hierarchieebene einer Domain kommt der Link), die Anzahl intern und extern abgehender Links der linkgebenden URL häufig noch ohne Daten. Hier ist zu vermuten, dass diese (aufwendig zu crawlenden) Werte im Lauf der Zeit vom Anbieter noch ermittelt und gefüllt werden. Interessant ist die Angabe der „Autor-ID“. Hier wird die ID eines Google+-Accounts mit ausgegeben, sofern die linkgebende Seite diese programmiertechnisch verknüpft hat. Das Vorhandensein einer solchen ID zeigt in der Regel eine eher vertrauenswürdige Quelle an und ist für Google ein gutes Signal.  

Searchmetrics Essentials

Die qualitativ hochwertigen Links erkennt man bei den Seachmetrics Essentials praktisch automatisch, denn die Liste der Backlinks wird nach der hauseigenen Kennzahl „SPS“ (Searchmetrics Page Strength) absteigend sortiert. Je weiter oben also ein Backlink in der Liste steht, desto besser stuft ihn der Anbieter ein. Laut Angaben von Searchmetrics beruht dieser Wert für die betrachtete linkgebende Seite auf Anzahl und Qualität der eingehenden Links, die wiederum auf diese eingehen. Es ist allerdings nicht transparent, ob auch Seiten oder Domains mit bekannten Google-Strafen (z. B. kein PageRank oder wenn die komplette Domain aus dem Index gefallen ist) entsprechend berücksichtig bzw. abgewertet werden. Diese können ja durchaus viele eingehende Links haben. Im Gegenteil ist es gar nicht unwahrscheinlich, dass Seiten oder Domains aus unseriösen SEO-Umfeldern eine künstlich hochgezogene Anzahl an eingehenden Links haben und trotzdem oder gerade deswegen eine solche Strafe vorliegt.

Für eigene Analysen lassen sich die Backlinkdaten auch bei Searchmetrics exportieren. Dazu wählt man in der Übersicht zunächst die Funktion „Export“ aus. Die Daten werden dann im Hintergrund aufbereitet und stehen später über den Button „Export“ in der Fußleiste zur Verfügung. Auch bei Searchmetrics klappt die Übergabe in Tabellenkalkulationen wie MS-Excel nicht ganz schmerzfrei. Beim Überführen der Daten in Spalten wurde offenbar das Komma zur Trennung verwendet. Sobald in einer URL ein Komma vorhanden ist, das dort ja als Zeichen zugelassen ist und leider gar nicht so selten vorkommt, werden Daten nach rechts in die falschen Spalten verschoben. Es empfiehlt sich daher in jedem Fall, die Korrektheit der Zuordnung manuell noch einmal nachzuprüfen. Die searchmetricseigene Kennzahl SPS wird von Excel leider häufig als Datum uminterpretiert. IP-Adressen werden mal als Zahl und mal als Text erkannt, was allerdings leicht behoben werden kann. 

Tipp

Der unschöne Effekt durch „falsche“ Trennzeichen in URLs und die damit verbundene Zerstörung der Datenintegrität kommen bei vielen Tools im Web vor, die Datensätze zum Download anbieten. Zur Erkennung legt man am besten in der Spaltenüberschrift einen Filter an (über „Sortieren und Filtern“, dort dann „Filtern“ mit dem Trichtersymbol). In der Titelzeile erscheint nun in jeder Spalte ein Pull-down-Feld. Erscheinen dann rechts am Ende der angezeigten Daten noch in leeren Spaltenüberschriften solche Symbole, stimmt der Datenbestand nicht bzw. wurde die Struktur durch falsche Zeicheninterpretation von Excel zerstört. Klappt man den Filter dort in einer leeren Spaltenüberschrift auf und deaktiviert das Kästchen bei „(Leere)“, werden die fehlerhaften Datensätze direkt angezeigt. Wenn es nicht zu viele sind, kann man das Problem manuell beheben. Ansonsten helfen hier wirklich schwere Formelgeschütze, die über Textoperatoren Fehlzeichen in der URL erkennen und beheben.

Stellt man in der Ansicht „Verweisende Domains“ im Menü Backlinks-Profil den Filter für die Anzahl an Links von einer Domain genügend hoch ein (im Beispiel in Abbildung 19 auf „10“ gesetzt), lassen sich Domains identifizieren, die „sidewide“ (also auf allen oder fast allen Seiten) Links gesetzt haben.

Kommen diese Links von Blogs, z. B. aus der Blogroll, ist das in der Regel kein Problem. Liegen die Links allerdings im Footerbereich der Site, sollte man dem besser nachgehen. Nach allgemeiner Auffassung können solche Linkstrukturen, wenn sie häufiger auftreten und v. a. zusammen mit anderen externen Links, die zu dubiosen Seiten führen, möglicherweise Auslöser für Strafen bei Suchmaschinen sein.

Frage 3: Wie findet man die qualitativ hochwertigen Links?

LinkResearchTools

Die LRT lassen über die Vielzahl an vorhandenen Kennzahlen und die damit kombinierbaren Filter und Sortiermöglichkeiten für den Linkanalytiker praktisch keine Wünsche für individuelle Fragestellungen offen. Da sich der Anbieter ausschließlich auf das Thema Links konzentriert, wirkt dies auch logisch. Um qualitativ hochwertige Links zu finden, sortiert man z. B. nach den tooleigenen Metriken wie „Power“, „Trust“ und „Power * Trust“, aber auch nach vielen anderen Metriken wie Linkwachstum nach Zeit (gestaffelt über verschiedene Zeiträume), den „AC-Rank“ (eine Metrik von Majestic, die ähnlich dem PageRank von Google das Wichtigkeitsmaß, basierend auf Links, berechnet) oder den „G!idx“ (zeigt an, ob eine Domain rankende Seiten im Google-Index hat)

Der „Title Rank“ zeigt an, auf welcher Position eine backlinkende Seite selbst für den eigenen Title in Google positioniert ist. Eine weitere nützliche Kennzahl ist „Juice“, die direkt um eine Stärkemaß (von 1 bis 25) oder andere Hinweise wie „Dead“ (Seite wird nicht bei Google gefunden), „Dead Meat“ (Seite ist nicht erreichbar oder keine HTML-Seite), „Dupe“ (Seite ist ein Duplikat) oder „NSN“ (Seite hat keinen substanziellen Inhalt) ergänzt wird.

Weitere filterbare Kennzahlen sind u. a. der Alexa- (Traffic) und C-Rank (nach Anzahl eindeutige Besucher pro Monat), der PageRank und Trust-Metriken. Natürlich findet man auch die unterschiedlichen Arten der Domain, IP- und IP-C-Class-Popularitäten, unterschiedliche Social-Media-Metriken (Facebook Votes, FB Likes und Shares, Tweets und Retweets sowie, wie oft die URL bei Google+ geteilt oder mit +1 versehen wurde), die Anzahl Backlinks aus DMOZ und Wikipedia (nach unterschiedlichen Ländern bzw. Sprachen), das Domainalter und noch einige andere mehr siehe (Abbildung 21). Die Kennzahl „LinkLoc“ zeigt übrigens an, aus welchem Seitenbereich ein Link stammt, also z. B. aus dem Header, Footer, der Sidebar, einem Kommentar, einer Aufzählung oder dem Contentbereich (Abbildung 2020). Wie in Abbildung 4 ersichtlich ist, wurde dieser Umstand, aus welchem Bereich ein Link kommt, von den SEO-Experten sehr häufig genannt bzw. als wichtig erachtet. Einige keinesfalls repräsentative Stichproben haben allerdings gezeigt, dass die automatisierte Zuordnung zwar noch nicht immer zweifelsfrei gelingt. Aber mit der Integration dieser Kennzahl ist der Anbieter sicherlich auf einem richtigen Weg.     

In einer ersten groben Annäherung filtert man also nach Eingabe einer Domain oder nach dem Hochladen einer Liste mit URL z. B. nach den tooleigenen Metriken wie „Power * Trust“, Title Rank und Juice. Schwarze Schafe mit (noch) guten Werten unter den Backlinkquellen lassen sich über „G!idx“ oder C-Rank wegfiltern. Solche Kombinationen stellen sicher, dass relativ zuverlässig Backlinkquellen erkannt werden, deren wichtige Kennzahlwerte (meist von Suchmaschinenoptimierern) künstlich nach oben getrieben wurden, die aber keine oder vergleichsweise nur wenige echte Besucher haben oder mittlerweile gar aus dem Google-Index verbannt wurden.

Um sich einen Überblick über schädliche Links zu verschaffen, nutzt man bei LRT am besten das hierauf spezialisierte Modul „DTOX“ (Link Detox). Dieses teilt die Backlinks auf in „giftige“, „verdächtige“ und „gesunde“ Links. Es lassen sich einerseits dazu existierende Backlinks prüfen, daneben gibt es aber auch noch einen „Was-wäre-wenn“-Modus. Hier kann man eine Liste mit URLs hochladen. Diese wird dann unter Beachtung ihrer real existierenden Backlinks durchgeprüft. Dazu gibt es noch einen dritten, den sog. „Prüf-Modus“. Hier findet eine Gegenprüfung statt, ob eine URL oder Domain bereits bekannt ist – ohne weitere Prüfung existierender Backlinks.

Im Dtox-Modul gibt es auch eine Möglichkeit, markierte (schlechte) Linkadressen im richtigen Format zu exportieren, um sie direkt bei Google in das neue Disavow-Tool hochzuladen, wie in Abbildung 22 oben mit einem roten Kasten markiert zu sehen ist (zum Disavow-Tool siehe den gesonderten Beitrag in dieser Ausgabe).

Im Dtox-Modul sind auch verdächtige bzw. „suspekte“ Links filterbar. Diese muss man dann wohl oder übel manuell durchsehen und nach Lage der einzelnen Kennzahlen beurteilen, ob diese Linkquelle eher in den „giftigen“ oder in den „gesunden“ Bereich zählt. Von einem vorschnellen Markieren oder gar nachfolgenden Hochladen bei Google ist in jedem Fall dringend abzuraten. Recht praktisch erscheint die Möglichkeit, bei Links, die man nicht mehr haben möchte, den verantwortlichen Webmaster direkt anzumailen (Abbildung 23). Allerdings verbirgt sich hinter dieser offiziellen Mailadresse nicht immer die tatsächliche desjenigen, der unmittelbar Herr oder Frau über den Inhalt ist.

Um die stärksten Unterseiten oder Unterordner potenzieller Linkgeber zu finden, stellt LRT übrigens noch ein weiteres interessantes Modul mit dem Namen „SSPT“ (Strongest Sub Pages Tool) zur Verfügung.

SEOlytics

Wie bereits weiter oben erwähnt, hält das Tool von SEOlytics links von den Linklisten einfach zu bedienende Filter bereit. Über die Sortierfunktion „aufsteigend“ und „absteigend“ nach Citation und Trust Flow (siehe Abbildung 24) lässt sich dann die gefilterte Ansicht so darstellen, dass jeweils die stärksten oder auch schwächsten Backlinkquellen oben stehen.

In der Abbildung 25 sind die verfügbaren Filter („Suchoptionen“ genannt), die eigentlich untereinanderstehen, der besseren Übersicht wegen als Montage nebeneinander dargestellt. Nicht übersehen werden sollte die oben angebotene Möglichkeit, alles zusätzlich über einen Datumswähler auf einzelne Wochen eingrenzen zu können. Hinter jeder Auswahlmöglichkeit zum Anklicken findet man weiterhin in Klammern die Zahl der Ergebnisse, die sich hinter diesem Filter verbirgt. Eine typische Filtereinstellung, um wertvolle Links zu finden, wäre beim Linkstatus z. B., alle NoFollow-, Redirect-Links, ggf. Bilderlinks und Links aus Frames zu deaktivieren, einen oder mehrere passende Linktexte auszuwählen und einen hohen Citation und Trust Flow einzustellen (je nach Verfügbarkeit ab 30 oder 40 aufwärts). Die eingestellten Suchoptionen (Filtereinstellungen) lassen sich ganz unten über einen Link dann auch für eine spätere Verwendung unter einem selbst gewählten Namen abspeichern. Nach jedem Klick berechnet das Tool jeweils eine neue Ansicht, sodass man zwar einerseits etwas warten muss, aber andererseits die Zahlen in Klammern ebenfalls mit aktualisiert werden und man sofort einen Überblick hat, wie viele Ergebnisse bei den weiteren Filtern noch übrig bleiben. Diesen Refresh kann man aber umgehen, indem man mit gedrückter S-Taste gleich mehrere Optionen an- oder abklickt.

Wie in Abbildung 24 zu sehen ist, werden gelöschte Links farblich mit „gelöscht“ hervorgehoben. Bereits gesetzte Links zu verlieren, ist eine unschöne Sache und in der Regel immer einer Nachforschung nach den Gründen wert. Oft ist der einfache Grund aber auch nur, das z. B. in einem Blog oder Forum die Seite mit dem Backlink in das Archiv gewandert ist. Dort entsteht zwar dann ein neuer Backlink, aber der vorherige ist natürlich damit „gelöscht“. Leider hält das Tool keinen Filter bereit, in dem nur gelöschte Links angezeigt werden.

Die Linkdaten lassen sich im CSV-, XLS- und PDF-Format downloaden. Offenbar ist der Export in Excel tatsächlich für viele Toolanbieter ein größeres Problem. Bei SEOlytics erscheint als Erstes eine Fehlermeldung, weil die Datei „unlesbare Inhalte“ aufweise. Diese kann man allerdings ignorieren bzw. man lässt auf Nachfrage von Excel zu, dass die Datei automatisch repariert wird, was auch anstandslos gelingt. Trotz dieser Meldung werden dann alle Daten sauber übergeben, den erzeugten Fehlerbericht kann man ignorieren. Die so für eigene Analysen übergebenen Daten enthalten die Source-URL (Backlink-URL), die Target-URL (auf welche Seite der Link zeigt), der Anchor-Text (Linktext), den Linktyp (Art des Links), ob der Link neu ist („new“), die bereits mehrfach erwähnten Kennzahlen Citation und Trust Flow sowie das Land, aus dem der Link stammt (Country), und wie aktuell die Daten sind (Last Crawl Date).

Sistrix

Um mit den Linkdaten arbeiten zu können, stellt auch Sistrix dem Nutzer gute Filterfunktionen zur Verfügung. Für jede angezeigte Spalte lässt sich ein Filter setzen, aber auch eine Gruppierung nach Domains vornehmen. Komplexere Filter lassen sich für eine spätere Nutzung abspeichern. Hinterlegte Filter sind accountbezogen und stehen bei allen Domains, die man analysiert, zur Verfügung. Bei der Filterauswahl sollte man aber vorsichtig vorgehen, denn wenn man versehentlich die auch dort verortete Löschfunktion erwischt, ist dieser ohne Sicherheitsabfrage dann auch wirklich unwiederbringlich verloren.

Das praktische Arbeiten im Expertenmodus bzw. der Expertenansicht ist online nicht unbedingt einfach, denn die Datenvielfalt benötigt vielen Spalten, die passen dann natürlich nicht mehr auf einen Bildschirm und man muss daher häufig mehrfach horizontal scrollen, um an die jeweils interessanten Spaltendaten zu gelangen. Da die erste Spalte mit den URLs beim Blättern nach rechts nicht fixiert stehen bleibt, muss man mit dem Auge sehr genau in der Zeile bleiben, um die weiter rechts liegenden Daten noch der richtigen Zeile zuordnen zu können. Da wie erwähnt die Exportfunktion nur wenige und dazu die vergleichsweise eher unwichtigen Daten übergibt, ist eine tiefer gehende Backlinkanalyse v. a. bei größeren Domains eigentlich nur online direkt im Tool möglich. Um nicht den Überblick zu verlieren blendet man sich über den Button „Tabelle bearbeiten“ am besten alle Spalten aus, die man für die aktuelle Analyse nicht benötigt.

Bei der Bewertung von Linkkennzahlen sollte man mit Bedacht vorgehen, denn nicht immer werden diese für den Benutzer nachvollziehbar ausgegeben bzw. auf die gleiche Art und Weise verdichtet. Wie Abbildung 27 zeigt, erhält man für eine Domain für einen Linkankertext einmal 440 Links (gefiltert in der Detail- bzw. Expertenansicht) oder auch über 2.000 Links (errechnet aus der Anzahl Gesamtlinks und der prozentualen Angabe für den Linktext in der Übersicht). Der Grund liegt darin, dass die Prozentzahl in der Übersicht sich auf die Anzahl unterschiedlicher IP-Adressen als Basis bezieht, die Expertenansicht aber auf den prozentualen Anteil aller Links und mit dem Modus „exakter Ankertext“. Hier wird ein häufig auftretendes Problem bei SEO-Tools transparent: Es ist nicht immer klar, welche Zahlen als Basis für Durchschnittsbildungen verwendet werden. Der Anbieter denkt mit und bezieht z. B. die unterschiedlichen IP-Adressen mit ein, um im Übersichtsmodus Verzerrungen durch sidewide-Links zu vermeiden. Der Nutzer denkt aber, er hätte einen Durchschnitt über alle Links vor sich. Bei der Berechnung von linkbezogenen Durchschnittszahlen könnte man ja als Basis z. B. die reine Anzahl Links, die Anzahl Domains, unterschiedliche IP-Adressen oder gar die IP-C-Class Popularität ansetzen. Bei der Verwendung eines Tools sollte man sich daher immer im Klaren sein, wie die Zahlen berechnet werden bzw. auf welcher Basis die Kennzahlen berechnet werden.    

Um die wertvollen Links in Sistrix zu filtern, arbeitet man am besten mit kombinierten Filtern. So empfiehlt es sich beispielsweise je nach Analysezweck, nach Linkart (Follow), Linktyp (Text, denn hier wird ggf. Keywordrelevanz vererbt), Sichtbarkeitsindex (z. B. > 0,5), IP-C-Popularität (> 100) und Anzahl extern abgehender Links (> 5, um Seiten mit vielen externen Links auszublenden) zu filtern und am Ende alles nach Domains gruppieren zu lassen (siehe Abbildung 28). Auf solchen, den eigenen Zielen entsprechend gefilterten Daten, kann man nun gut mit der Sortierfunktion arbeiten und z. B. den verbliebenen Rest absteigend nach der Sichtbarkeitskennzahl anzeigen lassen. Die wertvollen Links bzw. Linkquellen stehen so gefiltert dann oben.  

Searchmetrics Essentials

Bei den Searchmetrics Essentials lassen sich über „Backlinks“/„Advanced Filter“ die Seiten, von denen ein Backlink kommt, nach der Anzahl der von dort gesamten Links, dem SPS, dem Attribut „follow – nofollow“ und weiteren Möglichkeiten wie u. a. Standort, Linktyp, Ziel-URL, Linktext oder IP-Adresse nach frei einzugebenden Werten filtern. Da die Filter flexibel erweiterbar sind, kann man damit auch komplexe Fragestellungen abbilden. So lassen sich z. B. alle Backlinks extrahieren, die auf die eigene Startseite verlinken, im Linktext irgendwo einen bestimmten Text („Hier“ oder auch den eigenen Marken-/Firmen- oder Domainnamen) enthalten, nicht von .de-Domains kommen, nicht per 301 weitergeleitet werden und einen starken SPS haben. Angelegte Filter lassen sich auch hier unter selbst gewählten Namen speichern und sind über die Fußzeile jederzeit erreichbar.

Alle verlinkenden Seiten sowie die Linktexte werden bereits in der Übersicht, aber auch mittels eigener Auswertungsseiten dargestellt und lassen sich entsprechend den eigenen Wünschen und Absichten sehr einfach filtern. Ebenso filterbar sind neue Backlinks, denen man nach einer einmal erfolgten Analyse der kompletten Backlinkstruktur natürlich jeweils besondere Aufmerksamkeit zukommen lassen sollte (Abbildung 30).

Kritische Links lassen sich umgekehrt ebenso herausfiltern. Setzt man den SPS-Wert niedrig an und kombiniert dies z. B. mit einer hohen Anzahl abgehender Links der backlinkgebenden Seiten (siehe das Beispiel in Abbildung 31), erhält man eine Liste von Backlinkquellen, die selbst keinen vernünftigen Eingangslink haben und möglicherweise durch eben die hohe Zahl an ausgehenden Links sog. Linkschleudern sein könnten. Aus dem so erzeugen Pool kann man dann über das stückweise Hinzufügen weiterer Filter die augenscheinlich Zweifelhaften herausfinden.  

Wertvolle bzw. qualitativ hochwertige, aber auch problematische Backlinks lassen sich mit den Searchmetrics Essentials in Summe schnell und sehr zuverlässig identifizieren. Beeindruckend ist die hohe Geschwindigkeit, mit denen die Ansichten selbst bei größeren Datenbeständen und komplexen Filtern aufbereitet werden. Hier ist ein absolut „flüssiges“ Arbeiten durchaus gewährleistet. Die ausgewiesenen Kennzahlen bezüglich der Backlinks erschienen durchweg in allen Ansichten konsistent. Bei der Analyse von Ankertexten muss man allerdings darauf achten, dass Serchmetrics zwischen Groß- und Kleinschreibung unterscheidet.      

Fazit:

Bei unseren Analysen ist uns erneut aufgefallen, dass SEO-Tools unterschiedliche Daten für eine Domain liefern. Das war und ist zu erwarten. Zum Teil fielen die Abweichungen toolübergreifend allerdings schon gravierend aus. Ob z. B. für einen Ankertext eines Links als Häufigkeit 3,8 Prozent, 14 Prozent oder gar noch mehr ausgegeben wird, ist für die Beurteilung der richtigen SEO-Maßnahmen schon bedeutsam. Zum einen mögen diese Abweichungen im unterschiedlichen Basiszahlenmaterial der Anbieter begründet sein, zum anderen vielleicht auch in noch nicht genügend qualitätsgesicherten Verrechnungsalgorithmen. Letzteres darf und muss man vermuten, wenn innerhalb eines Tools unterschiedliche Kennzahlen für den augenscheinlich gleichen Sachverhalt ausgegeben werden. Hier scheint durchaus noch Handlungsbedarf zu bestehen. Statt zwei Stellen hinter dem Komma auszugeben und damit eine besondere Exaktheit zu vermitteln oder ständig neue Darstellungsarten und Funktionen zu programmieren, wäre eine Rückbesinnung auf Datensorgfalt und Verantwortung den Kunden gegenüber sicher auch eine nachdenkenswerte Strategie. Man darf nicht vergessen, dass aufgrund solcher Daten oft wichtige Entscheidungen getroffen werden. Sind die Zahlen falsch, sind es bei größeren Abweichungen auch die Entscheidungen!

Noch sehr viel mehr verwundern muss allerdings, dass Kunden bisher offenbar nicht gemerkt haben, dass ihnen möglicherweise seit Jahren widersprüchliche Daten vorliegen oder dass sie z. B. mit heruntergeladenen Daten eigentlich gar nicht arbeiten können, weil sie schlicht fehlerhaft formatiert oder zugeordnet sind. Wie kann es sein, dass SEOs, Agenturen und Unternehmen so unkritisch hinnehmen, was man ihnen vorsetzt? Geht es wirklich nur darum, bunte Abbildungen und steigende Liniengrafiken für Berichte herauszukopieren – egal, was sich wirklich dahinter verbirgt? Insofern darf man gewisse Unzulänglichkeiten bei den Daten nur zum Teil den Anbietern anlasten – den Kunden scheint es offenbar völlig egal zu sein, ob sich Zahlen in unterschiedlichen Ansichten widersprechen. Nach unserer Erfahrung nehmen alle Toolanbieter gemeldete Fehler gern entgegen und bessern diese schnellstmöglich aus. Dazu benötigen sie aber auch diesbezügliche Reaktionen von den Nutzern, die offenbar noch unterbleiben. Nicht selten haben wir auf unsere Fehlerhinweise nämlich auch die Bemerkung gehört, dass sich darüber bisher noch niemand beschwert hätte. 

Pfiffige SEO-Agenturen könnten sogar auf die Idee kommen, sich für Kundenanalysen jeweils wechselnd die „richtigen“ Tools bzw. die mit den gerade passenden Zahlen herauszusuchen, die dann entsprechenden Handlungsdruck vermitteln und somit potenzielle Folgeaufträge nach sich ziehen können. Die Frage zu beantworten, welcher Toolanbieter denn nun „recht“ bzw. das beste Zahlenmaterial hätte, ist sehr komplex und würde extrem viel manuelle Prüfarbeit erfordern.

Die Tools bieten allerdings in Summe gesehen – und das ist die gute Nachricht – genügend verlässliche Daten und Möglichkeiten, sich mit offenen Augen einen schnellen Überblick über die eigenen Backlinkstrukturen oder die der Mitbewerber zu verschaffen oder diese tiefer gehend zu analysieren und letztlich zu bewerten. Für das einfache Auffinden eher zweifelhafter bzw. schlechter Linkquellen bietet das LinkReseachTool eine eigene automatisierte Auswertungsmöglichkeit, die manuell aktiv angestoßen werden muss. Bei allen anderen Anbietern muss und sollte man etwas SEO-Hintergrundwissen haben, um über die durchaus exzellenten Filtermechanismen die Schlechten im Töpfchen zu finden. Man fragt sich unmittelbar, warum die meisten Toolanbieter nicht eine Art Alarmfunktion installieren, die bei der Erkennung zweifelhafter Links z. B. per Mail einen Hinweis absetzt. Bei längerem Nachdenken wird allerdings klar, warum dies nicht so einfach ist, wie es sich anhört. Das Ineinanderwirken der verschiedensten Metriken, nach denen ein Link bewertet werden kann (siehe die Ausführungen am Anfang dieses Beitrags), ist tatsächlich sehr komplex. Während der Mensch sich beim Ansehen verschiedener Kennzahlen mit einem gesunden Bauchgefühl und etwas Hintergrundwissen eben über diese Kennzahlen schnell eine Meinung bilden und zweifelhaften Dingen weiter auf den Grund gehen kann, tun sich Maschinen bzw. Algorithmen damit schwer. Dazu kommt, dass Google immer sensibler auf automatisierte Abfragen reagiert und daher eine latente Gefahr vorhanden ist, dass plötzlich keine oder gar falsche Werte eingesammelt werden. Wenn dann Automatismen bei den Toolanbietern anschlagen und plötzlich Tausende von Warnmails verschickt werden oder in der Onlineansicht bisher normale Linkquellen blutrot gefärbt wären, gäbe es wohl unter den Sitebetreibern eine mittlere Massenpanik. Daher bleibt wohl bis auf Weiteres nur, bei Analysen den mit Fachwissen bewaffneten eigenen Sachverstand einzusetzen. Und irgendwie ist das realistisch gesehen auch gut so, denn wenn einfach jeder ohne Mühe und Know-how per Knopfdruck genauso viel über die komplexen Strukturen der Linkbewertung erfahren könnte, wäre ein gehöriges Stück des erarbeiteten Wettbewerbsvorteils dahin. Jeder Handwerker braucht einen guten Hammer und eine hochwertige Bohrmaschine als Tool. Aber wo er welchen Nagel einschlägt und wo und wie tief er bohrt, diese Entscheidung nehmen ihm seine Tools nicht ab. Genauso ist es im Bereich der Suchmaschinenoptimierung. Aufzuhören mitzudenken, weil alles nur noch maschinell und per Mausklick funktioniert, wäre sicher der falsche Weg. Wer sich ärgert, weil ihm nicht alles bequem per Knopfdruck auf den Tisch gelegt wird, hat nicht verstanden, dass dies dann auch all seine Mitbewerber tun könnten und er damit einen nicht unerheblichen Wettbewerbsvorteil der Bequemlichkeit opfern würde. Insofern lohnt das Investment in Know-how und in professionelle Tools allemal. Wer heute im Umfeld des Suchmaschinenmarketings noch ohne beides arbeitet, ist fehl an seinem Platz. Sind zu knappe Budgets für einen solchen Missstand verantwortlich, ist triftt dies möglicherweise – so hart das klingen mag – auf den Vorgesetzten zu. Wer würde nicht einem Handwerker schnellstens wieder die Ausgangstür zeigen, wenn er mit einem Handbohrer anrückt, weil seinem Chef eine Bohrmaschine zu teuer ist? Eben!