Coole Toole II

Mario Fischer
Mario Fischer

Mario Fischer ist Herausgeber und Chefredakteur der Website Boosting und seit der ersten Stunde des Webs von Optimierungsmöglichkeiten fasziniert. Er berät namhafte Unternehmen aller Größen und Branchen und lehrt im neu gegründeten Studiengang E-Commerce an der Hochschule für angewandte Wissenschaften in Würzburg.

Mehr von diesem AutorArtikel als PDF laden

In der letzten Website Boosting wurden SEO–Online-Tools vorgestellt. In dieser Ausgabe haben wir SEO-Tools unter die Lupe genommen, die lokal auf eigenen Rechnern installiert werden können. Auch in dieser Kategorie finden Interessierte eine große Auswahl an Werkzeugen, die wir nachfolgend vorstellen.

Auf fremden Servern mit eigenen SEO-Projekten zu arbeiten ist nicht jedermanns Sache und es setzt hohes Vertrauen in den jeweiligen Anbieter voraus. Zudem rechnen die Anbieter von Online-Tools in der Regel nach monatlichen Gebühren ab, während nach dem Erwerb einer Software oft nur geringere Wartungsgebühren für automatisierte Updates anfallen. Diese sind auch nötig, denn die „Schnittstellen“, mit denen sich die auf dem eigenen Rechner installierten Tools an Suchmaschinen andocken, um denen die notwendigen Informationen zu entlocken, veralten recht schnell und sollten daher immer auf dem neuesten Stand sein.

Sinngemäß gilt das Gleiche wie bei den SEO-Online-Tools, die wir in der letzten Ausgabe vorstellten: Ein Tool macht aus einem Webmaster keinen SEO, auch wenn die Werbung das ab und an gerne mal verspricht. Viele Teilbereiche sind einfach zu komplex, um sie mit pauschalen, maschinellen Abfragen sauber analysieren zu können. Was nützt es, wenn ein Tool nach Eingabe mehrerer Keywords tumb immer wieder anmeckert, dass diese Worte nicht im Domainnamen vorkämen und das aber sehr wichtig wäre? Oder dass das Keywords-Meta-Tag nicht ausgefüllt wäre? Hier werden Anfänger wohl eher mehr verunsichert, als dass man ihnen damit helfen würde.  

Auch bei den „Offline“-Tools sind wir wieder, wie schon beim Online-Tool-Vergleich im letzten Heft, auf ein seltsames Phänomen gestoßen. Bei einigen Tools tauchten grundsätzliche Funktionsfehler auf, die beim Hersteller nach Rückfrage so noch gar nicht bekannt waren. Trotz der häufigen, fast schon reflexartigen Standardanwort, dass noch keiner der Kunden Probleme mit dem Tool gehabt hätte, konnte man die Fehler in den meisten Fällen schnell nachvollziehen und beheben. Zu denken gibt das in zweierlei Hinsicht: Zum einen arbeiten viele Kunden offenbar nach dem Erwerb von SEO-Tools nicht wirklich intensiv damit, sonst würden solche Bugs sehr viel schneller auffallen. Zum anderen darf wohl vermutet werden, dass die Anbieter nicht wirklich und intensiv testen, bevor sie ihre Tools auf den Markt werfen – aus Zeitdruck und möglicherweise auch wegen eines mangelnden tiefer gehenden Verständnisses, wie operativ SEO-Arbeit tatsächlich abläuft. Diese Vermutung wird gestützt durch das teilweise Fehlen von Funktionen an Stellen, wo man sie sich eigentlich nicht nur wünschte, sondern wo sie auch gebraucht würden.   

Noch ein nützlicher Sicherheitstipp: Nutzen Sie Tools, die von Ihrem Rechner aus Abfragen starten, immer nur, wenn Sie über frisch aktualisierte Sicherheitssoftware (Virenschutz und Firewall) verfügen. In unserem Test kam es immer wieder – unabhängig vom Tool – zu Angriffen böser Websites, die im Zuge der Crawlingprozesse versuchten, in den abfragenden Rechner einzudringen. Offenbar gehört es mittlerweile ebenfalls zur Taktik der Schadcodeverbreitung, auf möglichst viele bzw. interessante Websites zu verlinken und somit in die (oft automatisierten) Abfrage- und Überwachungslisten von Webmastern und SEOs zu gelangen, die regelmäßig ihre Backlinks prüfen und auswerten. Wer also SEO-Tools ohne ausreichenden Schutz auf dem eigenen Rechner laufen lässt, kann sich unter ungünstigen Umständen also durchaus einen Trojaner einfangen, der Passwörter und Zugänge zu den eigenen Websites abgreift und nach Hause meldet.

SEO Traffic-Booster

Das Programm muss über einen Freischaltcode auf einem Computer aktiviert werden. Eine Installation sollte daher auf jeden Fall auf dem Rechner vorgenommen werden, auf dem es langfristig laufen soll. Bei einem Rechner- oder Betriebssystemwechsel muss es erneut reaktiviert werden, da eine Hardware-ID ermittelt und übertragen wird. Bei der Registrierung auf der Website von Data Becker erhält man eine Warnung, dass nicht alle Objekte sicher wären, und der anschließend per Mail geschickte Registrierungsschlüssel wurde von Norton als mögliche Phishingnachricht eingestuft und alle Links wurden vorsichtshalber deaktiviert. Hier sollte der Anbieter vielleicht noch etwas nachbessern. Ansonsten verlief der Registrierungsprozess problemlos.

Nach dem Start des SEO Traffic-Boosters von Data Becker legt man entweder ein neues Projekt an oder ruft ein bereits gespeichertes auf. Als Besonderheit ist es bei diesem Produkt möglich, sich mit einer Web-to-date- oder Shop-to-date-Webpräsenz (beides Softwareprodukte von Data Becker) etwas intensiver zu vernetzen. Einzelne Seiten einer Domain können per Verlinkung, aber auch über eine sitemap.xml ermittelt werden. Weitere Einstellungen erlauben u. a. die Anzahl zu analysierender Einzelseiten zu beschränken (für größere Websites sehr sinnvoll) oder auszuwählen, welche Tags für die Messung der Keyword-Dichte herangezogen werden. Um den betroffenen Webserver nicht zu sehr zu belasten, kann eine variable Pause zwischen dem Scan einzelner Seiten eingestellt werden.

Nach der Analyse, die je nach Umfang durchaus längere Zeit in Anspruch nehmen kann, bietet die Oberfläche zwei Schritte und eine umfassende Werkzeugbox an. Beim ersten Schritt werden einzelne Seiten menügeführt optimiert (Seite auswählen, Keywords finden, daraufhin analysieren, optimieren und übernehmen) und danach können sie über verschiedene Anmeldedienste und über einen Linkpartner-Manager bekannt gemacht werden.

Nach Auswahl einer einzelnen Seite werden alle dort vorhandenen Worte incl. ihrer Häufigkeit angezeigt. Passende oder selbst definierte Keywords lassen sich dann per Mausklick in einen Keyword-Pool übernehmen. Das Definieren eigener Keywords ist bei Wortphasen (mehrere Worte) durchaus notwendig, weil nur einzelne Worte vorgeschlagen werden. Bei der anschließenden Analyse werden die Seitenelemente schematisch auf Optimierungspotenziale für eben diese Keywords durchsucht und erklärende Hinweise für Verbesserungen gegeben. Neben dieser Keyword-Analyse kann auch noch eine technische Analyse angestoßen werden, die u. a. fehlerhafte Programmierungen in HTML, CSS oder in Skriptdateien anzeigt und auf korrekte Zeichenkodierung, Sprachangabe,  Dateigrößen oder das Domainalter achtet. Praktisch ist, dass auch gleich nach Duplikaten gesucht wird. Im nachfolgenden Reiter werden links die Originaltexte der Webseite gezeigt und rechts kann man die gewünschten Änderungen hinterlegen.

Anschließend kann man einen einfachen Textbericht drucken, den man dem Programmierer oder der Agentur übergibt. Geänderte Elemente lassen sich natürlich auch mit Kopieren und Einfügen direkt in einem Webeditor an der entsprechenden Stelle platzieren. Hier wäre sicherlich die Möglichkeit einer „Live“-Anbindung per ftp an den Webserver hilfreich, sodass die vorgenommenen Änderungen direkt in den Quellcode eingesetzt werden können. So muss alles mindestens zweimal gemacht werden: erst die Optimierungen und anschließend alles noch einmal im Quelltext der Seiten. Durch diesen Medienbruch bleibt die Software etwas hinter dem technisch Machbaren zurück.

Nach der Optimerung lässt sich die projektierte Website noch automatisiert bei einer Handvoll Suchmaschinen und Webkatalogen anmelden. Gut umgesetzt wurde die Funktion für die Linkpartnersuche. Dort kann man manuell Linkpartner bzw. auch weitere Daten hinzufügen und die dort eingetragenen Links per Knopfdruck überprüfen. Mit der Funktion „Partnersuche“ und nach Eingabe eines passenden Suchbegriffs wühlt das Tool entweder nach Anmeldeformularen von Webkatalogen mit und ohne Backlinkspflicht oder sucht gezielt nach Blogs, die thematisch zur Website passen.

Sofern man Mailadressen der Linkpartner eingepflegt hat, kann man den Webmastern aus dem Tool heraus eine Mail schreiben. Das manuelle Einpflegen aller Daten ist natürlich bei einer größeren Anzahl an Links recht aufwendig. Hier wäre es sicher hilfreich, wenn das Tool über entsprechende Abfragen (Domaineigentümer, Mailadressen) zumindest eine Vorbelegung vornehmen würde. Die entsprechenden Daten sind ja in der Regel im Web verfügbar. Leider findet das Tool auch keine Backlinks auf die Seiten, die es als Suchergebnis ausgegraben hat. Das bedeutet, dass man im Suchergebnis (Abbildung 5) URLs angezeigt bekommt, die zwar zum Teil schon auf die eigene Site verlinken, aber man muss diese URL trotzdem selbst manuell in die Datenbank eintragen. Man muss also die vom Tool angezeigte URL aufrufen, die URL aus dem Browser oder der Datenbank kopieren und dann im Tool zu dieser URL extakt diese URL wieder einkopieren. Dass zumindest bei Markenbezeichnungen oder anderen eindeutigen Begriffen im ULR-Suchergebnis sicherlich immer wieder URLs auftauchen, die bereits einen Link enthalten, ist durchaus wahrscheinlich. Eine Überwachung von Backlinks setzt also in jedem Fall eine aufwendigere manuelle Pflege der Datenbankeinträge voraus. Warum das Tool für eine gefundene Seite nicht gleich selbstständig und vorab prüft, ob bereits ein Backlink vorhanden ist, bleibt offen. Nach dem manuellen Eintrag der URL und einem Klick auf den Prüfen-Button wird ja genau diese Analyse durchgeführt und das Vorhandensein des Backlinks bestätigt – die entsprechenden Algorithmen sind also im Tool vorhanden. Das Linkpartnermodul lief in unserem Test leider nicht ganz fehlerfrei. So gingen teilweise Datenbankeinträge verloren bzw. wurden von anderen Einträgen überschrieben und das Tool beendete mit einer Fehlermeldung seinen Dienst. Hier zeigt sich aber auch – unabhängig vom Anbieter – die Krux der installierbaren Tools. Sie werden in völlig unterschiedliche Umgebungen installiert und können daher durchaus Fehler produzieren, für die der Hersteller gar nichts kann. Online-Tools leiden unter solchen Problemen natürlich nicht, weil sie komplett in der (kontrollierten) Umgegbung der Anbieter laufen und über den Browser gesteuert werden.

Der SEO Traffic-Booster enthält noch weitere nützliche Tools zur Optimierung: Eine Textdichte-, PageRank- und Domainalter-Ermittlung, eine einfache Rankinganalyse, einen Sitemap-Generator, eine Onpage-Linkanalyse (ausgehende Links), eine Metatag-Analyse, einen Keyword-Generator und Suchvorschläge (u. a. mit Suggest-Abfrage), eine Mitbewerber- und Top-10-Mitbewerber-Analyse und einen Ladezeit-Check. Besonders hilfreich für Anfänger, aber auch für Profis ist sicher die „Live-Text-Analyse“. Dort hinterlegt man bis zu drei Keywords und beim Schreiben eines Textes zählt das Tool live die Keyword-Dichte prozentual mit. Das erleichert das redaktionelle Texten enorm.

In der Pro- und Ultimate-Version sind drei weitere Tools vorhanden. Mit dem Rankingtool lassen sich nach Eingabe von Domains, Keywords und Suchmaschinen die jeweiligen Positionen ermitteln und über einen längeren Zeitraum auch grafisch darstellen. Dabei läuft das Rankingtool selber als Hintergrunddienst nach einem Klick auf „Erfassung aktivieren und Programm schließen“ los. Die empfohlene Zeitspanne für Abfragen (Simulation menschlichen Verhaltens) sollte von der Voreinstellung „bis zu drei Sekunden“ deutlich höher eingestellt werden (Experten empfehlen bis zu 15 Sekunden), sonst kann es passieren, dass die IP-Adresse des Rechners oder des ganzen Unternehmens für Google gesperrt wird – falls zu viele Abfragen mit immer denselben Begriffen zu schnell erfolgen. Das Rankingmodul überwacht Positionen in Google, Bing und Yahoo, jeweils getrennt für Deutschland, Österreich und die Schweiz. Belässt man als Überwachungsintervall das voreingestellte „täglich“, sollte man sich des Umstands bewusst sein, dass der Hintergrunddienst auch wirklich täglich versucht, Suchmaschinen abzufragen, sobald der Rechner mit dem Internet verbunden ist und entsprechenden Traffic (mobiler Zugang!) und Suchmuster bei den Suchmaschinen erzeugt. Die Abfrageintervalle sollten daher mit Bedacht und ggf. durchaus größer (einmal pro Woche) gewählt werden. Etwas verwirrend ist vielleicht zu Anfang der Umstand, dass die Rankingpositionen nicht sofort nach dem Einstellen von Keywords, Domain und Suchmaschinen ermittelt werden, sondern erst dann, wenn das Programm SEO Traffic-Booster wieder geschlossen wird. Auch die Funktionsweise der unterschiedlichen Abfragemodi über drei Reiter ist nicht auf Anhieb verständlich, sie lassen Analysen aber unter verschiedenen Perspektiven ablaufen – was durchaus nützlich ist, wenn man das Prinzip dahinter erst einmal verstanden hat.

Das Backlinktool von SEO Traffic-Booster läuft angenehm schnell und reichert die gefundenen Backlinks mit den wichtigsten Daten an (siehe Abbildung 8). Anschließend kann die Liste im Excel-Format exportiert werden. Eine Speicherung im Tool für spätere Vergleiche (Wegfall, neue Backlinks) ist nicht möglich. Die Bezeichnung „Online“ für die gefundenen Backlinks meint, ob die Links tatsächlich noch auf der Seite vorhanden sind. Von den für die Testdomain tatsächlich vorhandenen etwas über 10.000 Backlinks fand der SEO Traffic-Booster 792. Positiv: Für die Abfragen kann ein sog. Proxyserver eingetragen werden (die Abfragen kommen dann aus Sicht der Suchmaschinen von einer anderen IP-Adresse).

Mit dem Social Bookmark Submitter kann man eigene Links bzw. ganze Linklisten über anlegbare Profile (Accounts) zu den bekanntesten Bookmarkdiensten (gruppiert nach nofollow und dofollow) automatisiert übertragen. Dazu trägt man die jeweiligen Accountdaten, Benutzernamen und Passwort ein und der Submitter überträgt alles an die Bookmarkdienste. Auch hier sollte man mit der Anzahl an Accounts nicht übertreiben und durchaus unterschiedliche Linklisten hinterlegen, um keine nach Spam aussehenden Muster zu erzeugen. Die meisten Bookmarkdienste mögen solche automatischen Übermittlungen verständlicherweise nicht und sperren Accounts bei Auffälligkeiten.

In den einzelnen Masken des SEO Traffic-Boosters wird sehr viel erklärt, was gerade Einsteigern sicherlich hilft zu verstehen, warum etwas getan werden sollte. Der Anbieter Data Becker bietet auch ein auf das Tool zugeschnittenes Buch an. Es wurde von Regine Diepold geschrieben und trägt den Titel „Mit dem SEO Traffic-Booster zu Top-Platzierungen bei Google & Co.“. Es umfasst ca. 190 Seiten und ist für 24,95 € (Deutschland) im einschlägigen Handel zu erwerben.

Den SEO Traffic-Booster gibt es in verschiedene Versionen. Standard: für den normalen Webmaster, der seine Website optimieren möchte. Die Pro- und die Ultimate-Version enthalten zusätzlich drei Module, nämlich den Backlink-Checker, den Social Bookmarking Submitter und das Ranking-Analyse-Modul. Mit der Pro-Version können bis zu fünf Projekte, mit der Ultimate-Version kann dagegen eine unbegrenzte Anzahl verwaltet werden. Eine Testversion kann unter www.databecker.de heruntergeladen werden.

Screaming Frog SEO Spider

Das SEO-Tool von Screaming Frog ist vor allem für einen schnellen Überblick über eine Webpräsenz nützlich. Nach Eingabe einer Domain läuft der Spider los und analysiert alle Seiten dieser Domain mit allen Objekten und der internenen Verlinkung. Über die Oberfläche steuert man dann über Reitertabs praktisch die „Sicht“ auf die Domain. Wählt man, wie in Abbildung 8 gezeigt, z. B. das Tab „H1“, werden alle Einzelseiten gelistet und die Anzahl und inhaltliche Verwendung des H1-Tags angezeigt. Klickt man dann auf eine einzelne Seite bzw. „aktiviert“ sie, erscheinen unten in einem Fenster weitere Informationen zu genau dieser URL (Seiteninfos wie in Abbildung 8 gezeigt, oder auch die Struktur der ein- und ausgehenden Links wie Ankertexte, Alt-Texte oder Dofollow oder Nofollow sowie alle Informationen zu dort vorhandenen Bildern, wo diese herkommen und welchen Alt-Text sie haben).

Insofern kann man sich die vom Tool gespiderten Informationen als großen Datenwürfel vorstellen, den man sehr flexibel drehen und wenden kann, je nach Analyseabsicht. Die Zielgruppe für dieses Tool ist relativ klar: Es sind SEO-Experten, die für Websites vor allem technische Analysen durchführen. Man sieht auf einen Blick, ob die internen Linkstrukturen gesund sind, auf welchem Level eine einzelne Seite aus Suchmaschinensicht (!) verankert ist, ob und wie viele externe Links verwendet wurden oder ob Duplicate Content vorliegt (wird über einen Hashcode ermittelt). Dabei werden Weiterleitungen ebenso angezeigt wie alle Meta-Daten oder Canonical-URL.

Schaltet man den Modus von „Spider“ auf „List“, lassen sich auch noch unpublizierte oder auf Platten gespeicherte Webseiten offline analysieren. Vor allem beim Umgang mit größeren Domains wird man schnell die umfangreichen und auch parametrisierbaren Ein- und Ausschlussfiltermechanismen zu schätzen lernen. In der Free-Version lassen sich diese Filter allerdings nicht anwenden. Insbesondere die individuellen (Custom) anlegbaren Filter erweisen sich bei näherem Hinsehen als echtes Powerwerkzeug: Hier lassen sich die gespiderten Seiten gezielt nach Keywords (muss vorkommen/soll nicht vorkommen) filtern – und zwar im Quelltext! Damit ist es möglich, jedwede Textsnippets zu suchen oder eben auch zu suchen, auf welchen Seiten diese fehlen. Haben wirklich alle Seiten einen Tracking- oder z. B. Adsensecode eingebunden (über „Does not Contain“)? Welche Seiten einer Domain benutzen das Nofollow-Attribut? Wo sind noch Kommentar-Tags vergessen worden? Welche Seiten verlinken auf eine nicht mehr vorhandene (oder zu ändernde) externe Bilderquelle? Diese und andere Fragen lassen sich praktisch auf Knopfdruck und extrem schnell für alle analysierten Domains beantworten. 

Tipps, Hinweise oder interpretierende Analysen bekommt man von diesem Tool nicht. Das ist auch gar nicht seine Zielrichtung. Hier finden Profis ein Werkzeug, das nur schnell und schlank sein will und hilft, strukturelle Schwächen einer Website zu erkennen. Die kostenlose Version hat bis auf die fehlenden Filtermöglichkeiten eine Beschränkung auf 500 ULRs für einen Domainscan. Damit lässt es sich wunderbar risikolos testen. Eine Downloadmöglichkeit und weitere Informationen findet man unter www.screamingfrog.co.uk.

SEO Elite

Man muss es mögen, das für westeuropäische Augen oft etwas übertrieben wirkende Marketing der Amerikaner. Schon beim Start von SEO Elite wird man mit Werbesprüchen und Testimonials beballert. Auch auf der Website lernt man, dass das Investment von 167 USD für die Software „Millions of Dollars“ in die Taschen der Kunden gespült hat. Da hilft es sicher, einmal den Nebel des Marketings zu lüften und nachzusehen, was SEO Elite wirklich zu bieten hat.

Nach dem Start des Tools wählt man aus, was man genau analysieren möchte. Zur Auswahl stehen dabei Backlinks zu finden (über Google oder Yahoo!), mögliche Linkpartner zu finden, bestehende Linkparter zu prüfen (ist der Backlink noch aktiv?), festzustellen, wie man für einzelne Keywords ranked oder wie viele eigene Seiten im Index von Suchmaschinen sind und letztlich kann man noch mögliche Autoritätssites aufstöbern, von denen es sich lohnen könnte, einen Link zu bekommen. Die Abfragen lassen sich in der Regel gefiltert nach einzugebenden Keywords erledigen, damit die Themenrelevanz gewahrt bleibt. Zusätzlich lassen sich in den Optionen die Abfragegeschwindigkeit, das Land und eine Zufallsvariable zur Emulation menschlichen Verhaltens einstellen.

Das Tool läuft dann je nach ausgewählter Abragefunktion einige Minuten – bei größeren Websites bzw. bei vielen Backlinks gerne auch schon mal einige Stunden. Diese Zeit sollte man auf jeden Fall einkalkulieren und sich keineswegs auf den „In Progress xx%“-Balken zur Abschätzung verlassen. Je nach gewählter Suchmaschine, aus der die Backlinks extrahiert werden sollen (Google oder Yahoo! – empfehlenswert ist hierfür auf jeden Fall Yahoo!), werden nun z. B. die Linkdaten abgefragt und Kennzahlen dafür ermittelt. Von den etwas über 10.000 Backlinks der analysierten Domain wurden von SEO Elite nur 87 gefunden. Das erscheint deutlich zu wenig und legt den Schluss nahe, dass das Tool für echte Backlinkabfragen nur bedingt geeignet ist. Recht nützlich ist allerdings die statistische Zusammenstellung, welche Keywords auf den Seiten vorhanden sind (und wo), die zu der analysierten Domain verlinken. Aufgrund der nur wenigen Backlinks, die das Tool ermittelt, wäre hier eine Uploadmöglichkeit eigener Backlinklisten wünschenswert. Leider fehlt eine solche. Ermittelte Daten lassen sich mit dem Tool als formatierte HTML- oder CSV-Datei für eine weitere Verwendung speichern. 

Eine sehr interessante Möglichkeit, die für das Tool auf der Website www.seoelite.com vorgestellt wird, konnten wir in der aktuellen Version 4.0 leider nicht entdecken, nämlich für ein Set von rankenden Domains (z. B. Mitbewerbern) gemeinsame Linkquellen (Hubs) zu finden. Ob diese Funktion in einer alten Version vorhanden war oder erst in einer neuen Version verfügbar sein wird, konnte bis zum Redaktionsschluss nicht geklärt werden. Die beschreibenden Screenshots auf der Website stimmen generell nicht unbedigt mit der aktuell verfügbaren Version überein, was das etwas „schreiende“, typische amerikanische Marketing nicht unbedingt seriöser wirken lässt.   

Die Kontaktaufnahme mit thematisch passenden Websites wird durch SEO Elite hingegen gut unterstützt. Nach Eingabe von Keywords oder Keywordsets findet das Tool potenzielle Linkpartner.

Dazu wird auf den ermittelten Domains und auch in den Whois-Datenbanken nach verfügbaren Mailadressen gesucht (die genaue URL wird zur manuellen Prüfung mit angegeben) und diese werden zusammen mit einigen Kennzahlen ausgegeben. Findet SEO Elite keine Mailadresse, wird „info@“ vermutet (Guessed) und dem Domainnamen einfach vorangestellt.

Solche Adressen werden wohl in der Regel keinen so großen Kontakterfolg erzielen. Aber auch die anderen Ergebnisse (personalisierte Mailadressen) bedeuten nicht unbedingt, dass man die E-Mails des Webmasters gefunden hat. Diese Adressen können z. B. ebenso von Vertriebsmitarbeitern stammen, die in der Regel mit einer Linktauschanfrage nicht viel anfangen können. Ganz generell muss dieses in den USA durchaus übliche Vorgehen, über Tools automatisierte Linkanfragen zu stellen, für Deutschland im Hinblick auf geltendes Recht und den Datenschutz wohl eher kritisch gesehen werden.

Nach der Eingabe aller notwendigen Daten, auch derjenigen für den Zugang zum eigenen E-Mail-Server, kann das Tool dann recht komfortabel Anfragemails mit konfigurierbarem Text praktisch selbstständig versenden.

ASEOPS 7

Die Softwareschmiede Acebit hat ihre SEO-Software (Hello Engines Professional) komplett überarbeitet und ihr auch einen neuen Namen gegeben: ASEOPS – Acebit SEOProfessionals Suite. Nach dem Start prüft die Software, ob Updates verfügbar sind oder ob die Signaturdatenbank aktualisiert werden muss. Befremdlich wirkt dabei, dass man danach aufgefordert wird, den Rechner neu zu starten – und vor allem, alle Disketten aus den Laufwerken zu nehmen. Jüngere Webmaster werden wohl gar nicht mehr wissen, was Disketten überhaupt sind. Hinsichtlich des Funktionsumfangs der Software darf man über diesen kleinen Fauxpas schmutzeln. Ein Neustart ist übrigens nicht notwendig.

ASEOPS kann durchaus als die derzeit umfangreichste SEO-Software für den Desktopeinsatz bezeichnet werden. Durch die prinzipiell unbegrenzte Anzahl anlegbarer Projekte ist sie sicher auch für Agenturen eine gute Option. Der Zugriff auf Ressourcen im Web ist bei ASEOPS ungewöhnlicherweise auch via ftp oder http mittels Benutzername und Kennwort möglich. Der Hersteller gibt an, dass Suchmaschinen-Updates zeitlich unbegrenzt ohne Nachzahlung geladen werden können. Die meisten Hersteller verlangen hier im Gegensatz dazu pro Jahr eine Gebühr. Die Software lehnt sich im Bedienungsablauf durchaus an die gebräuchlichen Vorgehensweisen bei der Optimierung von Websites an.

Für eine Domain lässt sich eine recht detaillierte Fehleranalyse durchführen. Die Software prüft dabei

  • technische Faktoren (u. a. Codevalidität, Links, Ladezeit, robots.txt, Sitemaps),
  • den Site-Rank (PageRank, DMOZ- und Yahoo-Verzeichniseinträge und das Domainalter),
  • die Popularität der Site (anhand der Sichtbarkeit in den drei großen Suchmaschinen und der Anzahl an Backlinks, die diese Suchmaschinen auf Anfrage auswerfen),
  • die Sichtbarkeit bei Suchmaschinen generell (bei welchen Suchmaschinen wird die Domain gelistet?),
  • Bookmarks für die Domain bei Mister Wong, LinkARENA und del.icio.us,
  • für einen primären Suchbegriff alle Platzierungen in den wichtigsten Suchmaschinen und
  • wichtige SEO-Kennzahlen wie z. B., ob das Suchwort im ersten Satz verwendet wurde, die URL sonderzeichenfrei ist, das Verhältnis von Grafik zu Text, identische Meta-Tags, korrekter Einsatz von H1-H3, die Alt-Attribute, Weiterleitungen und sehr vieles mehr.

Bei der Keyword-Ermittlung via Vorschläge kamen leider zu wenig brauchbare Empfehlungen. Für das Keyword „Notebook“ wurde zwar kein „Laptop“ vorgeschlagen, dafür aber jede Menge unbrauchbarer Unsinn. Das Keyword „Unterhose“ förderte statt Begriffen wie Slip Vorschläge wie „unterhose german“ oder „unterhose translate“ zutage. Auch eine Änderung des Suchdienstes für Vorschläge brachte keinerlei Verbesserung. Egal ob Google (DE), Altavista oder Yahoo! ausgewählt wurde, die Vorschläge waren immer die gleichen. Der Versuch, Vorschläge über die angebotenen Webdienste wie Google Adwords zu holen, scheiterte ebenfalls. Zwar wurde rechts das Google Keywordtool als Frame direkt eingebunden und man konnte dort auch suchen. Der Button „Schlüsselwörter auslesen“ blieb aber ausgegraut und somit konnten die gefundenen Keywords nicht in das Tool übernommen werden. Dies war leider auch bei allen anderen vom Tool angebotenen Webdiensten so. Die Website wurde anstandlos im Programmfenster geöffnet, aber übernehmbar war leider nichts. Die Möglichkeit der Keywordextraktion von Mitbewerberseiten hat hingegen gut funktioniert und wirkt mit der Funktion „Auto-Auswahl ab:“ auch gut durchdacht. Wer seine Hauptkeywords mit Longtail-Begriffen mischen möchte, wird das Kombinationstool lieben. Dort lassen sich bis zu drei Keywordlisten automatisch mischen.

Insgesamt kann die vorgesehene Funktionsvielfalt (auswählbare Vorschlagsdienste, Webdienste, Mitbewerber plus Kombinationserzeugung für Longtail-Phrasen) nur als sehr vorbildlich bezeichnet werden. Die augenscheinlich noch vorhandenen Fehler in der Software gerade an dieser besonderen Stelle trüben diesen ansonsten beeindruckenden Funktionsumfang allerdings etwas ein. Hier sollte der Anbieter auf jeden Fall dringend nachbessern und wenn alles so funktioniert, wie die Oberfläche das andeutet, bleiben hier wohl keine Wünsche mehr offen.

Rankingabfragen bei Suchmaschinen können entweder im sog. API-Modus durchgeführt werden (für Google, Bing und Yahoo!) oder durch Parsen der Suchergebnisse. Für den letzteren Modus wurden die Suchmaschinen sauber nach Ländern getrennt (D, A, CH, F, NL, UK, SUA, ES, IR, IT, RU, CAN und „international“); diese sind per Mausklick auswählbar. Durchgeführte Abfragen bzw. die Positionen werden gespeichert und stehen für spätere Vergleiche und für grafische Auswertungen zur Verfügung. Rankingberichte lassen sich als CSV, XLS oder im Word-Format erzeugen.

ASEOPS wartet mit einer umfassenden Sammlung an SEO-Analysemodulen auf, deren ausführliche Erläuterung den hier verfügbaren Rahmen bei Weitem sprengen würde. Daher sollen nur einige dieser Module kurz angerissen werden. Die Onpage-Analyse (SEO-Checker) scannt zunächst eine Website mit allen Unterseiten und stellt dann für jede einzelne Seite einen umfassenden Bericht zur Verfügung, der wichtige Elemente bewertet und konkrete Optimierungsvorschläge nennt. Zusätzlich können via Klick auf Reiter auch der jeweilige Quelltext und eine Seitenansicht wie im Browser aufgerufen werden. Hilfreich ist dabei, dass alle Analysen nach Datum gespeichert werden und damit auch für spätere Vergleiche abgerufen werden können.

Der Backlinks-Checker prüft und sortiert eingehende Links für die betrachtete Domain und gibt tabellarisch neben einem Statuscode, dem Ankertext, der Anzahl abgehender Links der gefundenen Seiten, dem Linkattribut (z. B. nofollow), der IP-Adresse auch den PageRank der verlinkenden Seiten an. Die Analysetiefe (Anzahl zu prüfender Backlinks) kann dabei individuell festgelegt werden. 3.166 Backlinks (von etwas über 10.000) hat ASEOPS für die Testdomain gefunden, was im Vergleich als durchaus respektabel und brauchbar bezeichnet werden kann.

Als besonderes Highlight muss die grafisch aufbereitete Linkpyramide bezeichnet werden, in welcher die Backlinks nach PageRank einsortiert werden. Hier erhält man sofort einen Überblick, ob der Backlinkaufbau strukturell „gesund“ ist.  

Mit dem Social-Bookmark-Manager lassen sich accountbezogen Bookmarks (für den Backlinkaufbau) zu den verschiedenen Diensten hochladen. Auch hier gilt die Empfehlung, solche Funktionen nicht mit der Brechstange zu nutzen, da Bookmarkdienste wie erwähnt sehr sensibel auf automatisierte Meldungen reagieren. Praktisch ist auch die einfache Suche nach Duplicate Content (prozentuale Angabe) mittels der Funktion „Suche von duplizierten Inhalten“. Etwa ein Drittel aller Websites soll dem Vernehmen nach aus solchem Duplicate Content bestehen und man tut gut daran, ihn auf der eigenen Website –falls er dort vorkommt – sauber für Suchmaschinen kenntlich zu machen. Weiterhin findet man in ASEOPS noch Tools zum automatischen und manuellen Anmelden in Webkatalogen bzw. -verzeichnissen, einen Meta-Tag-Generator, einen Code-Komprimierer (zum Beschleunigen des Seitenaufbaus), einen Sitemap- und robots.txt-Generator, einen HTML-Validator, ein Ladezeit-Prüfmodul, einen Simulator für Suchmaschinen-Robots (eine Webseite mit den Augen der Suchmaschine „sehen“) und einen Site-Scanner, der alle von einer Domain verlinkten HTML-Seiten einliest. Für jede dieser URL kann man sich dann via Eigenschaften „verlinkt auf“ und „verlinkt von“ anzeigen lassen. Befindet sich ein Blogsystem auf der Domain, findet der Profi hier schnell interessante Einblicke.

Besonders hervorheben sollte man noch das Modul „PageRank-Berechnung“. Damit wird für eine Domain (nur) anhand der internen Verlinkung ein PageRank berechnet. Was auf den ersten Blick schulterzuckendes Kopfkratzen erzeugt, macht auf den zweiten Blick durchaus Sinn: Hier erkennt man, ob die internen Links sauber und richtig strukturiert sind und welche der eigenen Seiten durch diese Links als „wichtig“ herausragen. Die Frage, die dieses Tool beantwortet, lautet: Gäbe es keine externen Links, wie würde Google die Wichtigkeit der einzelnen Seiten aufgrund der (von externen Einflüssen isolierten) internen Verlinkung berechnen? Fans des sog. PageRank-Scupltings dürften ihre helle Freude an diesem Modul haben. Nicht selten ist die Seite mit den Datenschutzhinweisen oder die Kontaktseite wegen der starken internen Verlinkung deutlich „wichtiger“ als eine Produktseite, die Geld verdienen soll. Mit diesem Modul wird all dies auf Knopfdruck transparent.

Eine weitere Besonderheit ist das Modul „Content kaufen“, das via Formular den einfachen Einfkauf von Text erlaubt, der nach Angaben des Herstellers von Profis verfasst wird. Als letztes Modul ist noch das „Recherche-Tool“ verfügbar, bei dem es sich aber um ein externes Modul handelt, das monatlich 79.- € kostet. Die Angaben zu diesem Tool auf den Webseiten von AceBIT sind, beschönigt formuliert, relativ vage gehalten. Man kann im SEO-, SEM- und Backlinkbereich „Monitoring“ betreiben, wobei die meisten der dort erwähnten Funktionen eigentlich bereits von ASEOPS zur Verfügung gestellt werden. Für ein Abo, das fast 1.000 € im Jahr kostet, sollte man dort eigentlich mehr Informationen vorfinden, also nur zehn bis zwölf kurze Sätze – ohne jedes erklärende Beispiel. Dass laut AceBIT„eine Trial des Recherche-Tools … derzeit nicht verfügar“ ist, macht das Angebot nicht gerade transparenter.

AceBIT bietet eine 30-Tage-Rückgabegarantie und somit die Möglichkeit, die Software im Hinblick auf die eigenen Belange ohne finanzielles Risiko ausgiebig zu testen. Ebenso kann man bereits vor dem Kauf das Benutzerhandbuch offen als PDF herunterladen. Ingesamt trüben Fehler im Keyword-Modul den ansonsten sehr guten Eindruck. Dies mag aber sicherlich der enormen Funktionsvielfalt der Software geschuldet sein. Gerade bei der Nutzung vielfältiger Schnittstellen zu externen Diensten, die ja nicht selten ihre Datenstrukturen unangekündigt verändern, können solche Probleme durchaus temporär und unerwartet auftreten. Das Support-Center von AceBIT, bei dem man solche Fehler als Ticket direkt einsenden kann, stimmt optimistisch, dass Programmfehler dieser Art wahrscheinlich recht schnell behoben werden. Einen ernsthaften Blick ist die Software aber auf jedem Fall wert. Weitere Informationen unter www.aseops.com

IBP – Internet Business Promotor

Axandra, der Hersteller von IBP, bietet seit etwa 15 Jahren Softwarewerkzeuge für Webmaster an und blickt daher bereits auf viel Erfahrung in diesem Bereich zurück. IBP liegt mittlerweile bereits in der Version 11 vor. Auf der Website „garantiert“ Axandra mit IBP nach eigenen Angaben als einziges Programm Top-10-Platzierungen. Ansonsten bekämen Käufer ihr Geld zurück. Das sieht nach einem fairen Angebot aus, soll aber nicht darüber hinwegtäuschen, dass nicht Top-10-Positionen garantiert werden, sondern (nur) die Geldrückgabe, falls man mit den Suchbegriffen nicht unter die Top 10 kommt. Bei welcher Suchmaschine, lässt die Website allerdings offen. Bei der (plötzlich englischen) Bestellseite wird die auf den deutschen Seiten vorher unbeschränkte Garantie dann auch auf ein Jahr eingeschränkt. Innerhalb von 30 Tagen ist eine Rückgabe aber auch ohne Angabe von Gründen möglich, d. h., genau genommen steht dort nur, dass man die Software in diesem Zeitraum zurückgeben kann, aber nicht, dass man auch das Geld wiederbekommt … Axandra bietet übrigens auf der Website auch noch einige kostenlose SEO-Tools online an, die für den einen oder anderen vielleicht interssant sein können (Keyword-Tool, Link-Checker, http-Status-Checks, Keyword-Dichte-Tool, Whois- & IP-Lookup-Tool).

Auch IBP wartet mit einem recht vollständigen SEO-Tool auf. Nach Eingabe von Domaindetails, Keywords und den Suchmaschinen, bei denen man ranken möchte, läuft eine sehr intensive Analyse. Ergebnis ist ein umfassender Bericht, der alle wichtigen Parameter der Top-10-Treffer der Suchergebnisseite mit der entsprechenden eigenen Seite vergleicht. Hier wird dann auch die Philosophie deutlich, die hinter der „Top-10-Geld-Rückgabe-Garantie“ steckt: Mach alles mindestens so gut, wie die aktuell besten zehn zu dem gewählten Keyword und schwupps, wird deine Seite dort auch gelistet. In der Tat gibt IBP auch dem Laien durch die Vergleiche der Kennzahlen der Top 10 wertvolle Optimierungshinweise und eine leicht verständliche Schritt-für-Schritt-Anleitung an die Hand.

Die Business-Version erlaubt übrigens ein fast vollständiges Anpassen der IBP-Berichte für Agenturen. Von der Logo-Einbindung bis hin zur Schrift- und Farbwahl ist so viel Individualisierung möglich, dass der Bericht dem eigenen Corporate Design entspricht, sofern es nicht zu abgefahren ist. Vermutlich verbirgt sich hinter dem einen oder anderen aufwendig aussehenden Bericht von SEO-Agenturen für ihre Kunden nichts anderes als eine IBP-Analyse.

Der Bericht selbst besteht aus 35 Einzelpositionen bzw. -vergleichen und wird sogar mit einem klickbaren Inhaltsverzeichnis produziert, wobei die einzelnen Kapitel nicht nur an- und abwählbar sind, sondern bei Bedarf auch in der Reihenfolge geändert werden können.

In IBP ist mittlerweile auch der Link-Manager von Axandra enthalten, der früher gesondert unter dem Namen „Arelis“ vertrieben wurde. Auf den ambitionierten Linkbuilder warten umfassende Filter- und Verwaltungsmöglichkeiten, die eigentlich keine Wünsche mehr offen lassen dürften. Sogar Begriffsausschlüsse wie z. B. „Download“ oder URL-Muster können als unerwünscht hinterlegt werden, was die Anzahl an „Fehltreffern“ nach einer Experimentierphase deutlich reduzieren kann. Die Funktionen zur Verwaltung aller Arten von Links sind so umfassend, dass die Bezeichnung „Link-Manager“ durchaus gerechtfertigt erscheint. Unter anderem lassen sich finden:

  • Link-Anmeldeformulare
  • Seiten, die zu (hinterlegten) Mitbewerbersites linken
  • Themenverwandte Blogs
  • Themenrelevante Webseiten

Zusätzlich lassen sich noch Links von Webverzeichnissen, Linkquellen aus anderen Projekten, manuell erstellte Listen oder solche, die von anderen Tools erstellt wurden, importieren. Allen gefundenen Linkmöglichkeiten lassen sich unterschiedliche Status oder Kategorien zuweisen, z. B. für eine spätere Filterung. Per Mausklick kann man prüfen, ob als echte Backlinkquellen klassifizierte Seiten auch tatsächlich noch aktive Backlinks enthalten. Weiterhin lassen sich über geschickte Filtermechanismen automatisch oder halbautomatisch Websites in Suchmaschinen und Verzeichnisse eintragen. Ganz generell wartet IBP an viele Stellen mit recht umfassenden Parametrisierungsmöglichkeiten auf, die Experten durchaus zu schätzen wissen. So lässt sich beispielsweise ohne großen Aufwand das Keyword-Tool von Google via Adwords-Schnittstelle anzapfen. Dazu müssen nur gültige Login-Daten eingegeben werden und schon bekommt man neben Keyword-Vorschlägen auch alle wichtigen Kennzahlen wie Suchvolumen oder Klickpreise (zur Wertabschätzung) direkt zur weiteren Verarbeitung in das Tool geliefert.

IBP hält noch einige andere Werkzeuge, die für die Online-Marketing-Arbeit durchaus nützlich sind, bereit (siehe Abbildung 26). Damit lassen sich losgelöst vom großen SEO-Modul schnell einzelne Analysen wie z.B. nach der Keyword-Dichte oder fehlerhaften Links fahren.

Alles in allem macht IBP einen sehr aufgeräumten und stabilen Eindruck. Die tatsächliche Funktionsfülle erschließt sich dabei allerdings erst beim zweiten Blick und nach einiger Zeit. Weitere Informationen unter www. axandra.de. 

SEO PowerSuite

Die SEO PowerSuite besteht eigentlich aus vier verschiedenen Tools, die einzeln oder im Paket erworben werden können. Es handelt sich dabei um den Rank Tracker, den WebSite Auditor, das SEO Spyglass und den Link Assistant. Die Suite gibt es in der Professional- und eine Enterprise-Version. Bei Letzterer kann man die Daten auch exportieren, Reports für Kunden gestalten und zeitgesteuert per Mail automatisiert an den Kunden versenden oder gleich im Web publizieren. Damit ist die Zielgruppe relativ klar abgesteckt: Die Professsional-Version eignet sich vornehmlich für die Inhouse-SEO-Arbeit, während die Enterprise-Version wohl für SEO-Agenturen besser geeignet ist. Wer allerdings auch inhouse ein umfangreiches Berichtswesen pflegen muss, sollte sich die größere Version näher ansehen. Die automatisier- und konfigurierbaren Berichte können sehr viel Zeit sparen und wirken sicher zudem professioneller. Es sind zunächst unsichtbare deutsche Berichtsvorlagen verfübar, dazu muss man allerdings erst eine eigene Berichtsvorlage erstellen, bei deren Generierung dann automatisch deutscher Text verwendet wird. Die Preisgestaltung der vier einzelnen Module ist identisch. Es gibt auch hier jeweils eine Professional- (je 99,75 €) und eine Enterprise-Version (je 249,75 €). Der Erwerb der kompletten Suite mit allen vier Modulen ist dazu im Verhältnis insgesamt gesehen deutlich günstiger (Professional 249.- € und Enterprise 599.- €). Für Agenturen und zahlengetriebene SEOs ist wahrscheinlich interessant, die Analyseergebnisse nicht nur in den gängigen Formaten ausgeben zu können, sondern auch per XML und eine SQL-Datei zur Integration in eine eigene Datenbank. Die Oberflächen der Suite sind zum größten Teil in Deutsch, aber bei einzelnen Funkionen tauchen immer wieder englische Masken auf. Übersetzungsfehler kann man allerdings direkt melden, ebenso wie Vorschläge neuer Rankingfaktoren bzw. Kennzahlen. Hier gibt sich der Hersteller sehr offen und kundennah.

Rank Tracker

Zur Auswertung der eigenen Keyword-Positionen in unterschiedlichen Suchmaschinen dient Rank Tracker. Hier kann man nach Ländern filtern und sich dann die interessanten Suchmaschinen auswählen. Für Deutschland stehen Google, Bing, Yahoo!, AOL, Altavista, Ask.com, Fireball, Freenet und Web.de zur Verfügung. Rank Tracker erlaubt es ebenfalls, Mitbewerberdomains mit zu hinterlegen und diese dann auf Knopfdruck im Vergleich zu den eigenen Rankings darzustellen. Über das Datum werden alle Abfragen abgelegt und somit lassen sich später wertvolle Hinweise aus dem Vergleich der Suchpositionen gewinnen – gespiegelt an den durchgeführten SEO-Maßnahmen. Rank Tracker hält auch ein Keyword-Ermittlungs-Tool bereit und berechnet auf Wunsch für jedes Keyword auch gleich den sog. KEI (Keyword Effectiveness Index = Anzahl Suchanfragen zum Quadrat geteilt durch Anzahl der Suchergebnisse). Über die Eingabe eines Google-Analytics-Accounts verbindet sich Rank Tracker damit und ordnet Besuche auf der Website den einzelnen Keywords und ihrem Ranking zu. Dies erhöht die Transparenz deutlich und lässt mit der Zeit erkennen, wie sich Rankingänderungen tatsächlich auf die Anzahl der Klicks bzw. Besuche pro Keyword ändern. Ebenso ließe sich das Tool mit einem Google-Adwords-Account verbinden, damit die Captchas durch die direkte API-Abfrage umgangen werden können – falls man diese Daten und das Kennwort dazu einer Software anvertrauen möchte. Zur schnellen Abfrage von Suchmaschinen und Diensten können bis zu sechs API-Keys hinterlegt werden (Google, Bing, Yahoo!, Yandex, Wordtracker und SEMRush).

Reportings können individuell konfiguriert werden, sind allerdings durch die aufteilenden Blöcke leider nicht so übersichtlich wie ein schlankes Tabellenformat. Die Möglichkeit, alle ermittelten Rankingdaten incl. Mitbewerber und Historie in eine SQL-Datenbank zu exportieren, schafft eine leicht zu beherrschende Schnittstelle in ggf. vorhandene eigene Systeme.

Website Auditor

Mit dem Website Auditor lassen sich Domains scannen und anschließend die einzelnen Seiten nach vom Tool ermittelten Kennzahlen beurteilen. Bei der Emulation menschlichen Verhaltens bietet das Tool die meisten Einstellmöglichkeiten – und das ist bei derartigen Tools auch sehr wichtig, denn Suchmaschinen mögen keine automatisierten, zu schnellen Abfragen. Sogar die Möglichkeit der Proxy-Rotation ist vorgesehen. Damit lassen sich die Anfragen auf verschiedene IP-Adressen verteilen. Sicher ebenfalls nützlich ist die Funktion, bei sog. Captchas (das sind die abzutippenden, zerplatzt aussehenden, nervigen Buchstabenfolgen, an denen selbst kreative Menschen oft verzweifeln) ein Popup generieren zu lassen, um das Captcha-Rätsel manuell zu lösen, damit die Sicherheitsabfrage einer Website oder Suchmaschine überwunden werden kann. Wie in Abbildung 28 zu sehen ist, nützt das leider nicht immer etwas. Beim Google-Adwords-Keyword-Tool ist auch der Mensch nicht in der Lage, die Buchstabenverschmierereien korrekt zu entziffern. Es besteht aber auch die Möglichkeit, einen automatisierten Captcha-Breaker zu integrieren (Aufpreis), der dies automatisiert macht oder zumindest versucht.  

Zusätzlich lassen sich noch API-Keys von Google, Yahoo!, Bing und Yandex eintragen, damit Abfragen schneller erfolgen können, wenn sich die Zahl im täglichen Rahmen hält, die die einzelnen Suchmaschinen für ihre API-Keys vorgeben.

Die Abfrage einer kompletten Site oder auch eine Aktualisierung der Daten nimmt, wie bereits erwähnt, oft viel Zeit in Anspruch. Für dieses grundsätzliche Problem hält das Tool eine recht gute Lösung parat, indem man gezielt nur einzelne Seiten oder den sichbaren zusammengestellen Arbeitsbereich aktualisiert. Auch welche Daten für ein Projekt abgefragt werden sollen, lässt sich übersichtlich einstellen.

Das Tool wartet über die Berichte auch mit einer allerdings nicht zu umfangreichen Interpretation der ermittelten Daten auf. Diese bekommt man jedoch erst zu Gesicht, nachdem man einen solchen Bericht mittels einer Vorlage generiert hat.

Der generierbare Bericht gibt neben allgemeinen Daten zur analysierten Website wie Alter, IP, PageRank, DMOZ-Listung u. a. auch die Popularität in Social-Media-Plattformen (Digg, Delicious, Twitter, Google Buzz und Facebook), die Anzahl indizierter Seiten in Google, Yahoo! und Bing, eine PageRank-Linkstatistik sowie eine Linkwert-Statistik, Linkziele, Einzelseiten mit eingehenden und ausgehenden (externen) Links, eine Follow-/Nofollow-Verteilung, Status-Codes und HTML-Validität und eine Analyse der Title-Texte und der Meta-Descriptions aus. Solche Berichte lassen sich auch nach Eingabe von Keywords auf Einzelseitenebene durchführen. Diese und weitere nützliche Funktionen erschließen sich allerdings nicht immer auf den ersten Blick, denn die Menüführung ist etwas eigenwillig gestaltet und macht es Einsteigern nicht unbedingt leicht, das Tool auf Anhieb bedienen zu können.

Trotz der umfassenden Einstellmöglichkeiten beim Scannen wurde der Website Auditor als einziger in unserem Test leider immer wieder von Suchmaschinen blockiert. Auch der Wechsel der IP-Adresse konnte dieses Problem nicht lösen. Zu solchen Problemen kann es kommen, wenn unerfahrene Nutzer eines Tools dieses unbedacht einsetzen und es zu schnell laufen lassen. Erzeugt dieses Tool dann gleichzeitig ein bestimmtes Muster, das eine Suchmaschine oder ein Webdienst eindeutig erkennen kann, werden IP-Adressen, die mit genau diesen Mustern Abfragen starten, leider häufig gesperrt. In der Regel erkennen dies die Toolhersteller allerdings schnell und sorgen per Update dafür, dass sich die Abfragemuster ändern oder nicht mehr so leicht identifizerbar sind. Braucht man Analyseergebnisse allerdings dringend, kann die Wartezeit auf ein solches Update schon ärgerlich sein.

SEO Spyglass

SEO Spyglass unterstützt die Analyse …

Eingabe eines Keywords, für das man ranken möchte, oder einer (Mitbewerber-)URL, mit der man sich selbst vergleichen will. Anschließend wählt man aus einer großen Anzahl von Suchmaschinen diejenige aus, für die man die Analyse machen möchte. Im dritten Schritt gibt man noch eine Suchmaschine an, von der die Backlinkdaten bezogen werden (Tipp: Yahoo! und/oder Altavista). SEO Spyglass geht dann auf die Suche ins Netz und sammelt zu dem angegebenen Keyword Backlinkseiten ein. Das ist in der Regel recht schnell passiert. Schon deutlich länger dauert dann der nächste notwendige Schritt. Zu jeder URL werden (einstellbare) Kennzahlen ermittelt wie z. B. der PageRank, das Alter der zugehörigen Domain, die Anzahl eingehender Links auf diese URL und einige weitere Kennzahlen. Hier können je nach Umfang der URL-Liste schon einige Stunden vergehen. Geht es nur um die Prüfung einzelner Backlinkseiten, lassen diese sich auch mit der rechten Maustaste einzeln aktualisieren. Durch Gedrückthalten der STRG-Taste können auch mehrere URL-Zeilen hierfür markiert werden. Wer also schon einmal vorab selektiert, spart ordentlich an Analysezeit ein, weil nicht alles einzeln vermessen bzw. mit Daten aus dem Web angereichert werden muss.

Nach der Analyse kann ein umfassender Optimierungsbericht erzeugt werden, der darauf eingeht, wie für bestimmte Keywords optimiert werden kann, wie man seinen PageRank verbessern kann, wie man Linkpartner findet, über Artikel Backlinks generiert, Trafficquellen findet, soziale Medien nutzt und einiges mehr. Dabei werden in Standardtexte die jeweiligen Daten aus der Analyse in den Bericht eingespielt. „Entreißen Sie Ihrem Konkurrenten die größten Trafficquellen“ (die 1:1-Übersetzung der US-Marketingsprache lässt grüßen) heißt es da z. B. im Abschnitt „Trafficquellen finden“ und anschließend werden die ermittelten URLs angezeigt, die laut Analyse über viel Traffic verfügen. Dabei sollte man sich nicht darüber wegtäuschen lassen, dass diese Schätzungen wahrscheinlich über den Alexa-Toolbarwert kommen und im Zweifelsfall genauso richtig wie falsch sein können. Prinzipiell ist es natürlich auch mit solchen Tools nicht möglich, den Traffic fremder Webseiten zu messen. Grundsätzlich ist diese Art der Zusammenstellung und Sortierung der möglichen Link- bzw. Trafficquellen durchaus sinnvoll und nützlich. Allerdings erscheinen die vorbereiteten und, wie bereits erwähnt, „nur“ übersetzen Formulierungen für einen Bericht an einen Kunden in Deutschland doch wenig tauglich und sollten individuell überarbeitet werden. Wenn Sie jedoch einmal einen SEO-Bericht in die Hände bekommen, der mit den Sätzen „Aber es ist auch aufregend und erfüllend, wenn Sie es in den Suchmaschinen ganz nach oben schaffen und Ihre Mitbewerber überflügeln! Und wir sorgen dafür, dass dieser Prozess noch einfacher wird und die Früchte Ihrer Arbeit noch zufriedenstellender“ endet, dann hat sich die Agentur wohl diese Arbeit nicht gemacht …

Link Assistant

Mit dem Link Assistant komplettiert sich die SEO Suite rund um das Thema Backlinks. Nach Eingabe einer Domain bzw. einer URL werden verschiedene Projektinformationen hinterlegt (z. B. welcher Text auf eingehende Links gesetzt werden soll sowie eine kurze Beschreibung der Seiteninhalte und der eigenen Kontakt-E-Mail). Die Suchmaschinen, die für die Ermittlung der potenziellen Linkpartner herangezogen werden, lassen sich ebenso auswählen, wie die Scantiefe bzw. wie viele Linkadressen man ermitteln möchte. Eine solche Beschränkung empfiehlt sich auch dringend, denn ansonsten kann es wirklich passieren, dass Link Assistant mehrere Tage durchläuft. Praktisch für eine spätere Kontaktaufnahme ist sicherlich, dass das Tool gleich nach verwertbaren E-Mail-Adressen auf den entsprechenden Webseiten sucht.  

Nach dem Analyselauf sucht man per Mausklick diejenigen Linkpartner aus, die man gerne kontaktieren möchte, und setzt ein entsprechendes Statuskennzeichen (z. B. „Linkanfrage senden“). Nun kann eine der vorgefertigen E-Mail-Vorlagen verwendet werden oder man nimmt eine Anpasssung vor. Hierfür stehen viele nützliche Variablen zur Verfügung, wie z. B. der PageRank-Wert der eigenen Website (für einen Linktausch) oder eine Vorschau, wie der Link später aussehen wird bzw. sollte. Damit lässt sich ein recht individuell wirkender Text basteln, der nicht schon beim Öffnen nach Spam riecht. Jeder in der Branche kennt wohl die mehr als lästig wirkenden Standardtexte solcher Tools (Hallo, ich bin gerde auf Ihre phantastische Seite X gestoßen und wollte anfragen, ob wir uns nicht gegenseitig verlinken wollen? – und im wahrsten Sinne des Wortes geht es dann meist weiter mit Bla, bla, bla). Die Kunst eines erfolgreichen Linkaufbaus mittels solcher Tools liegt also wieder mal in der Intelligenz des Benutzers, nicht im Tool selber. Link Assistant unterstützt diesen Prozess allerdings recht umfangreich durch gut organisiertes Datenmanagement. E-Mails werden direkt über das Tool verschickt und empfangen. Durch diese Integration behält man leichter den Überblick und spart durch mögliche Automatisierungen (wenn ein Link wieder entfernt wird oder nicht gesetzt wurde, kann man z. B. entsprechende Mails anstoßen) sehr viel Zeit. Das Tool ist selbstvertändlich auch in der Lage, akquirierte Tausch- oder einseitige Backlinks regelmäßig zu prüfen und auch –wie bei den drei anderen Tools – konfigurierbare Berichte zu erzeugen. Da wie die komlette Suite auch Link Assistant eine SQL-Exportschnittstelle hat, hat man relativ viel Sicherheit, bei einem eventuellen Toolwechsel in der Zukunft die bisher angefallenen, durchaus wichtigen Daten nicht zu verlieren.   

Fazit:

Ob man als SEO oder Agentur nun ein Online-Tool (siehe letzte Ausgabe) oder eines der in dieser Ausgabe vorgestellten Tools verwendet, bleibt Strategie- und Geschmacksfrage. Online-Tools haben den Vorteil, dass sie relativ fehlerfrei laufen, weil keine Installation auf unterschiedlichen Rechnerumgebungen nötig ist und der Anbieter ein Bugfixing im Prinzip in Echtzeit vornehmen kann. Weiterhin kann man von veschiedenen Rechnern und zum Teil auch in Gruppen auf die Analysedaten zugreifen, wenn diese online gehosted werden. Umgekehrt sind die Online-Tools oft etwas teurer und werden monatlich berechnet. Dafür sind aber in den meisten Fällen sowohl die Leistungsfähigkeit als auch die Geschwindigkeit bei den Analysen ungleich höher. Suchmaschinenoptimierern sagt man aber oft eine gewisse Portion Misstrauen nach. Die wertvollen Backlink- und Kunden-(Domain-)Daten möchte nicht unbedingt jeder einer externen Plattform frei Haus liefern, noch dazu, wenn es sich beim Betreiber am Ende noch selbst um eine SEO-Agentur handelt bzw. jemanden, der selbst auch SEO-Leistung anbietet.

Mit solchen Überlegungen oder gar Ängsten fühlt man sich bei Tools, die man auf dem eigenen Rechner installieren kann, vielleicht deutlich wohler, wobei natürlich auch ein solches Tool prinzipiell nach Hause funken könnte. Die Wahrscheinlichkeit ist aber recht gering, denn das bliebe sicher nicht lange geheim und würde wohl das Aus für den Anbieter bedeuten. Die „Offline“-Tools leisten ingesamt eine durchaus gute Arbeit – und das zu günstigen Preisen und in der Regel auch ohne Beschränkungen hinsichtlich der Anzahl von Analysen oder Domains. Rechenzeit, Speicherplatz und Übertragungsvolumen gehen schließlich auf die Kappe des Käufers – was bei Online-Tools durchaus völlig anders ist. Die Möglichkeiten der Onpage-Analysen sowie das Berichtswesen sind bei den Offline-Tools im Schnitt etwas umfangreicher, ebenso erscheinen sie für Einsteiger und Anfänger etwas besser geeignet, sich in die SEO-Welt einzuarbeiten. Mit HMTL 5 werden aber auch die Anbieter von Online-Tools recht schnell mehr Möglichkeiten zur Konfiguration kundenindividueller Berichte bereitstellen. Eines wurde allerdings ganz deutlich: Wer echte Profileistung braucht und das Letzte aus seinen Möglichkeiten herausholen möchte und für den hierfür die Kosten nur eine untergeordnete Rolle spielen, sollte wahrscheinlich doch eher auf die Online-Varianten schielen.