Mayday – Houston, wir haben ein Problem!

Mario Fischer
Mario Fischer

Mario Fischer ist Herausgeber und Chefredakteur der Website Boosting und seit der ersten Stunde des Webs von Optimierungsmöglichkeiten fasziniert. Er berät namhafte Unternehmen aller Größen und Branchen und lehrt im neu gegründeten Studiengang E-Commerce an der Hochschule für angewandte Wissenschaften in Würzburg.

Mehr von diesem AutorArtikel als PDF laden

„Seit Anfang dieses Jahres sind wir von den TOP-10-Positionen 20 bis 30 Seiten nach hinten versetzt worden (Penalty). Wir wissen allerdings nicht, warum, und demzufolge auch nicht, was wir dagegen oder dafür tun können.“ Dieser Hilferuf ging nach unserem Angebot, sich für die Site-Klinik zu bewerben, bei unserer Redaktion ein. Wie immer war es nicht einfach, aus der Masse der Bewerbungen diejenigen herauszufischen, bei denen neben einer individuellen Hilfe auch alle anderen Leser genügend Learnings für ihre eigene Site mitnehmen können. Diesmal fiel die Entscheidung auf den Geschenkeservice unter www.geschenk-ideenservice.de. 

Der Betreiber von www.geschenk-ideenservice.de schrieb uns, dass seit Anfang des Jahres offenbar eine Strafe bei Google vorliegt, denn seither wären alle Rankings deutlich nach hinten gestaucht worden. Es gilt also zunächst, sich einen Überblick über die Entwicklung der tatsächlichen Sichtbarkeit dieser Domain über den Lauf der Zeit zu verschaffen.
 

Schaut man sich die Sichtbarkeitskennzahlen von SEOlytics, Sistrix und Searchmetrics an, zeigt sich in allen drei Tools ein ähnliches Bild. Dort kann man in den Kalenderwochen 44 (Anfang November) 2010 und 31 (Anfang August) 2011 zwei größere Einbrüche im Ranking ausmachen. Bei Sistrix hat man freundlicherweise unseren Vorschlag aus der letzten Ausgabe , die Sichbarkeitsgraphen mit den Daten wichtiger Google-Updates zu markieren (die Buchstaben A-E in Abbildung 2), aufgenommen. Dies macht es deutlich einfacher, Einbrüche oder ggf. auch Anstiege ohne daneben liegende Zettel mit Datumsangaben von Updates hinsichtlich allgemeiner Abstrafungen zu interpretieren.

Auf der Suche nach Gründen

Anfang November 2010 gab es bei Google keine bekannten Updates und das sog. Brand-Update im August davor hatte nur Einfluss auf die Anzahl der Suchergebnisse einer Domain auf einer Suchergebnisseite. Da der Absturz beim Ranking aber tatsächlich signifikant ist (Ziffer 1 in Abbildung 2), kommen eigentlich nur zwei Gründe infrage: 
Es handelt sich um eine individuelle Strafe, die manuell oder auch automatisch vergeben wurde. So etwas kann passieren, wenn z. B. eine nennenswerte Anzahl Backlinks entwertet wurde, weil Linknetzwerke erkannt wurden. Je nachdem, wie intensiv eine Domain in solche künstlichen Linkfarmen verstrickt ist, zählen einfach nur die Links nicht mehr mit. Bei intensiver Nutzung solcher Links wird in der Regel dann aber auch eine Strafe für die teilnehmenden Domains verhängt.
Es wurde ein umfassender Relaunch durchgeführt, bei dem man keine Rücksicht auf die besonderen Belange der Suchmaschinenoptimierung nahm.
Gegen den zweiten Grund spräche zunächst, dass sich die Domain nach dem Einbruch auf den ersten Blick nicht mehr so richtig erholt hat. In der Regel erreicht man nach einem missglückten Relaunch zwar oft länger nicht oder im schlimmsten Fall nie mehr die vormals erzielten Rankings, aber zumindest nach einiger Zeit ziehen die Rankings sichtbar wieder an. Dies ist zwar hier passiert, wie man bei Ziffer 2 in der Abbildung 2 sehen kann, aber die nachfolgenden Schwankungen sind doch eher ungewöhnlich für den Fall eines Relaunchs.

Man hat aber bei einer solchen Analyse noch einen weiteren guten Freund zur Seite: das Internet-Archiv „WaybackMachine“ (http://web.archive.org). Dort findet sich dann tatsächlich auch ein weiteres wichtiges Puzzlestück!

Hü – hott – hü – hott

Wie die Abbildungen 3 bis 5 zeigen, wurde offenbar mehrmals das Design gewechselt. Eine eigentlich schon aufgeräumte Optik wurde gegen einen Vorläufer der aktuellen Version getauscht. Das tatsächliche Design sah damals selbstverständlich anders aus, wie es in Abbildung 4 nur schematisch und auszugsweise zu sehen ist. Hier konnte die WaybackMachine das Design nicht mehr richtig zusammensetzen, daher wird es optisch nicht korrekt dargestellt. Im Januar 2011 wechselte man dann wieder zum alten Design, um dann etwa im Oktober 2011 erneut und endgültig zur neuen Version zurückzukehren.

Abbildung 6 zeigt den Rankingverlauf, verbunden mit den Hin- und Zurück-Relaunches und ergänzt um Spitzen bei neuen Backlinks sowie die letzten Panda-Updates. Offenbar wurde der erste Einbruch tatsächlich durch einen Relaunch verursacht. Danach stellte man wieder auf das alte Design um und es gab zwei jeweils nur kurzfristige Erholungen im Ranking. Anfang 2011 wurde dann wieder das neue Design verwendet. Problematisch dabei ist natürlich, dass sich durch so eine Umstellung in der Regel auch die Adressen der einzelnen Seiten und damit auch die Linkstrukturen ändern. Die „Nachwirkungen“ bei den Suchmaschinen können sich über Monate hinziehen. Insofern ist es zwar verständlich, wenn man nach dem ersten Einbruch wieder auf die alte Version zurückgeht, aber es ist nicht gerade förderlich, den Suchmaschinen die gerade eben erst „gelernte“ Struktur schon wieder zu entziehen. Die Panda-Updates 3.4 und 3.5 haben dem Ranking der Domain dann am Ende den Garaus gemacht. Da Google das Panda-Update 3.5 zeitnah mit dem Penguin-Update (das war gegen übertriebenes SEO ausgerichtet) freigab, kann man nur Vermutungen anstellen, ob die letzte Strafe bezüglich der „schwachen“ Inhalte oder eben für falsches SEO vergeben wurde.

Eine gezoomte Detailansicht bei Sistrix (Abbildung 7) offenbart ganz gut, dass wohl jedes wichtige Panda-Update (gekennzeichnet mit den Buchstaben A-E) zu einer Veränderung im Ranking führte. Dies legt den Schluss nahe, dass beim letzten Einbruch (E) wohl ebenfalls Panda der Grund war und nicht das Penguin-Update. Dies zu unterscheiden ist wichtig, denn nur, wenn man den Grund für Strafen einigermaßen stabil erkennen kann, lassen sich auch die jeweils richtigen Gegenmaßnahmen ergreifen. Dazu später mehr.

 Das Internetarchiv WaybackMachine, zu erreichen unter web.archive.org, macht in unregelmäßigen Abständen Kopien von Websites und stellt diese über eine Datumauswahl jedem zur Verfügung. Damit lassen sich über Jahre hinweg noch Websites rekonstruieren. Wer dies nicht möchte, kann in der Steuerungsdatei „robots.txt“ den Crawler (Robot) der WaybackMachine ausschließen. Dazu fügt man einfach die Zeilen „User-agent: ia_archiver“ und darunter „Disallow: /“ (ohne die Anführungszeichen) ein. Ab diesem Zeitpunkt werden dann keine Snapshots mehr von der Domain gespeichert.
 

Die Backlinkstruktur

Die Backlinkstruktur der Domain zeigt keine besonderen Auffälligkeiten. Die reine Backlinkzählung schwankt je nach Tool zwischen knapp 5.000 und 32.000 Links. Bei der Anzahl unterschiedlicher Domains liegen alle Tools um etwa 500, bei der IP-C-Class-Popularität bei ca. 400. Das bedeutet, dass von einigen wenigen Domains sidewide Links gesetzt wurden. In der Tat kommen weit mehr als 10.000 Links von nur vier Domains. Und in der Tat haben diese in der Sidebar einen Link unter „Partnersites“, einen Link zusammen zu anderen Shop im unvermeidbaren Footerbereich oder gar das „Geprüft“-Siegel eingebunden, das geschenk-ideenservice.de anbietet (sichtbar in Abbildung 12). Die meisten verlinkenden Domains sind aber durchaus themenrelevant und ein Großteil der Links geht auf die Startseite. Bei den Linktexten dominiert „Geschenkideen“ und nicht der Domainname geschenk-ideenservice.de. Ob Google dies wegen der nicht exakten Übereinstimmung krummnehmen könnte, lässt sich nicht sagen. Es gibt aber noch genügend unterschiedliche Schreibweisen mit dem Domainnamen auf Linktexten, sodass sich kein allzu großes Missverhältnis ergibt. Auffällig ist lediglich, dass die Backlinks bzw. die Domains, von denen sie kommen, allesamt selbst relativ schwach sind. Nur weniger als zehn Prozent aller unterschiedlichen Hosts haben auch nennenswerte eigene Rankings, der Rest läuft unter ferner liefen. 
Es gibt einen ausgehenden Link zu einer Site mit Malware (die Schadprogramme verteilt), aber auch dies ist unproblematisch, solange es nicht mehr davon gibt. Google weiß ja auch, dass es für einen Webmaster gar nicht so einfach ist, das komplett im Blick zu behalten. Trotzdem sollte man natürlich versuchen, seine klickenden Besucher nicht solchen Fallen zuzuführen. 

Hinsichtlich der eingehenden Links gibt es also in Summe betrachtet keine nennenswerten Absonderlichkeiten, die spürbar aus der Reihe scheren und ggf. eine Strafe seitens Google rechtfertigen würden bzw. eine solche nahelegen.

 
OnSite: Wie ist die Domain strukturiert?


Hier bringt die Analyse zunächst Seltsames hervor: Bei den (vielen) ausgehenden Links werden knapp 2.500 nur temporär (per Statuscode 302) weitergeleitet und etwa 2.200 davon laufen auf Fehlerseiten (Statuscode 4xx). Lediglich 40 werden korrekt mittels 301 weitergleitet. Über 10.000 Links sind mit dem Attribut nofollow ausgezeichnet, davon sind fast 8.000 interne Links. Solche Strukturen sind mehr als ungewöhnlich. Es wird aber noch seltsamer. Viele der internen Seiten bzw. Verzeichnisse werden über die robots.txt für sämtliche Suchmaschinen blockiert und dann auf Affiliate-Netzwerke umgeleitet. 
Auf den ersten Blick hat man eine Site vor sich, wo es allerlei Geschenkideen gibt, die nach verschiedensten Kriterien sortiert wurden. Erst nach einigen Klicks wird klar, dass hier gar nichts verkauft, sondern nur vermittelt wird. Damit erscheinen nun auch die eigenwilligen Linkstrukturen in einem anderen Licht. Möchte man etwas kaufen, muss man die Site zwangsweise wieder verlassen und wird ohne jeden Hinweis zum eigentlichen Anbieter umgeleitet. Diesen Umstand gilt es, später noch einmal aufzugreifen.
Die Ankertexte der internen Links wurden nicht optimal ausgerichtet. Das Tool OnPage.org zeigt z. B. an, dass knapp 40.000 Links mit gleichen Ankertexten auf unterschiedliche Linkziele gesetzt wurden. Auch das Linkmanagement mit internen und externen Links ist nicht sauber angelegt. So zeigen beispielweise interne Links mit dem Text „Taufgeschenke“ über 2.500-mal entweder auf www.geschenk-ideenservice.de/originelle_taufgeschenke.html, also auf eine interne Seite, oder auch auf die externe Seite www.taufgeschenke-geschenke.de/.  
Interne Links mit dem Linktext „Hochzeit“ zeigen einmal auf www.geschenk-ideenservice.de/geschenkideen.html/hochzeit/geschenke-anlass/21/ oder auf www.geschenk-ideenservice.de/top-geschenkideen-hochzeit.html. Hier tun sich Suchmaschinen schwer, die „richtigen“ Seiten für einen Begriff zu bestimmen. Und selbst wenn eine davon auserkoren würde – dann wäre die komplette Linkpower für die zweite Seite, die das gleiche Thema trägt, verloren. 
Auf dem Webserver liegen etwa 100 Seiten herum, die nicht mehr aktiv verlinkt werden, Suchmaschinen aber bekannt sind und damit auch besucht werden. Solche Dateileichen sollte man immer sorgfältig entfernen, denn im Laufe der Zeit laufen deren Links immer häufiger ins Leere – und dies erhöht unnötigerweise die technische Kennzahl an sog. Broken-Links. Es existieren auch noch Links zu Seitenadressen mit deutschen Umlauten in der URL, die natürlich auch nicht mit tatsächlichen Seiten verbunden sind bzw. sein können. Beim manuellen Setzen von Links sollte man daher immer eine gewisse Sorgfalt walten lassen und besser immer wieder nachprüfen, ob solche Broken-Links entstanden sind. Die Freeware „Xenu“ bringt hier schnell einen Überblick und hilft beim Aufräumen.
Die Verwendung der Überschriftsetzung im HTML-Code mit „Hx“ wirkt stark mechanisch und weist im Wesentlichen auf vielen Seiten das gleiche Muster auf: H1 wird einmal verwendet, H2 ebenfalls nur einmal, H3 jeweils dreimal und H4 wieder einmal. Wird das Headline-Tag in dieser (nicht korrekten) Weise verwendet, verliert man den Bonus, dass die Worte in den Überschriften von der Suchmaschine etwas höher gewichtet werden. 
Die Seiten sind insgesamt gesehen sehr contentarm. Das Verhältnis zwischen Programmierung und echtem Content (Code/Content-Ration) beträgt ebenfalls meist nur um die 10 Prozent, was von den meisten Experten als deutlich zu wenig erachtet wird. Suchmaschinen sind auf Content angewiesen, um Relevanzbeurteilungen durchführen zu können. Das gelingt natürlich nur bedingt, wenn ein großer Teil des Textes sich auf allen Seiten wiederholt und zudem nur ein relativ kleiner Teil davon „unique“, also einzigartig ist. Ein typisches Problem von Shops, das von vielen Betreibern in gutem Glauben, diesem Missstand abzuhelfen, dadurch verschlimmert wird, dass man stupide vermeintlich optimierte SEO-Texte mit keywordbasierten Links auf die Seiten pumpt. Wenn man nicht schon die Robots der Suchmaschinen damit vertreibt, dann meist am Ende die Besucher, die sich über die oft zusammenhanglos wirkenden Texte mehr wundern, als dass sie diese vertrauenserweckend fänden. Solche – sorry – Textschrott-Container findet man ja mittlerweile gerade recht häufig auf simpel zusammenkopierten Seiten, die sich zwar damit zum Teil Rankings erschleichen können, aber zu wenig Mehrwert bieten, als dass die Besucher dort bleiben würden.   
Jeder Kann nur für sich selbst entscheiden, ob Hilfe- bzw. Erklärungstexte wirklich hilfreich sind oder eben auch eher den Charakter eines „Fülltextes“ vermittlen. Beispiel: „Beim Geburtstag geht es erstmal darum, wer Geburtstag hat. Dann sollte man die Interessen der zu beschenkenden Person kennen. Steht diese Person auf Action und Abenteuer, dann findest Du aufregende Geburtstagsgeschenke in der Kategorie: Erlebnisgeschenke. Exklusive Ideen zum Geburtstag findest Du in der Kategorie ‚Exklusive Geschenke‘. Zum 30., 40., 50. oder auch 60. Geburtstag gehören natürlich Blumen dazu. Und sollte das Geburtstagskind den kulinarischen Sinnen erlegen sein, dann ist ein schöner Geschenkkorb mit vielen Leckereien mit Sicherheit die richtige Wahl.“ Zumindest wirken viele Texte einfach so schnell dahingeschrieben und das erzeugt natürlich nicht unbedingt hohes Vertrauen beim Besucher. Und darum geht es letzten Endes auch: Den Leser durch vertrauensbildende Maßnahmen auf der Site zu halten und ihn damit zum weiteren Stöbern zu veranlassen. Unterbleibt das längere Aufhalten bzw. verlassen viele Besucher die Seite relativ schnell wieder, ist das für Google in der Regel ein sehr negatives Signal.


Blätter dir den Wolf


Durch Blätternavigationen kann man die Robots der Suchmaschinen gehörig durcheinanderbringen. Abbildung 9 zeigt eine solche Navigation auf der Site. Sieht man sich den zugehörigen Ausschnitt aus dem Quellcode an, wird deutlich, wo die Probleme liegen:

 

  • <a href="/geschenke-sets.html/PAGE=2" > 2  </a>
  •  <a href="/geschenke-sets.html/PAGE=3" class="akt"> 3  </a>
  •  <a href="/geschenke-sets.html/PAGE=4" > 4  </a>
  •  <a href="/geschenke-sets.html/PAGE=5" > 5  </a>

Hier entstehen immer mehr Seiten zum Erfassen, an denen sich die Suchmaschinen regelrecht weiterhangeln. Die Linktexte sind dazu mit „1“, „2“ und weiteren Zahlen zudem wenig aussagekräftig. Hier empfiehlt es sich, den Robots mitzuteilen, dass es sich um eine Blätternavigation handelt und welche Struktur diese hat.
Dazu legt man im Head der Seite(n) Informationen ab. Auf der dritten Seite sähe das so aus:

  • <link rel="prev" href="geschenke-
  • sets.html/PAGE=2" />
<link rel="next" href="geschenke-sets.html/PAGE=4" />

So wird für jede Seite ein Vorgänger („prev”) und ein Nachfolger („next”) definiert. Anders als hier sollte man aus Gründen der besseren Vergleichbarkeit zum Originalcode jedoch immer absolute Adressierungen verwenden, also die komplette URL, einschließlich www und Domainnamen. Auch die Verwendung von Großbuchstaben in Webadressen sollte man besser vermeiden.

 Google fragt: „Magst Du uns? Dann gib uns einen Hinweis!“

Google sagt hierzu übrigens mit einem Augenzwinkern: „If you choose to include rel=”next” and rel=”prev” markup on the component pages within a series, you’re giving Google a strong hint that you’d like us to” (Quelle und weitere Informationen dazu: einfach.st/gpagi). Prinzipiell kann man das Problem natürlich auch mit dem Einsatz des Attributs rel=canonical in den Griff bekommen. Aber wenn Google sich schon so über die Auszeichnung per „prev“ und „next“ freut, warum sollte man dem Robot nicht auch einmal einen Gefallen tun?


Ungewöhnliche Verstecke


Beim erstmaligen Betreten der Site ergibt sich ein eher ungewöhnlicher Anblick. Die obere Navigation besteht aus einer grün-blauen Melange an Schaltflächen und einer Tag-Cloud. Google rät übrigens von der Verwendung solcher Clouds zumindest aus SEO-Gründen eher ab. Klickt man allerdings auf die Schaltfläche „Kategorien verbergen – anzeigen“, verschwindet die optisch so dominante Navigation und offenbart einen dahinter liegenden Text (siehe Abbildung 10). Während sich der unbedarfte Besucher wahrscheinlich die Augen reibt, was ausgerechnet dieser Text mit den nicht zur aktuellen Seite passenden Links soll, vermutet der Experte sicher zu Recht einen SEO-Text bzw. einen Text und eingebettete Links, deren wahrer Leser eher die Suchmaschine sein soll. Da Links weiter oben auf einer Seite höher bewertet werden, hat man hier offenbar diesen Weg gewählt, wichtige Links an eben diese Position zu bringen.
Ob das ein Qualitätstester bei Google ankreiden würde? Darüber kann man nur spekulieren. Alles, was mit Versteckspielchen zu tun hat, mag man dort ja bekanntlich nicht so gern. Klappt man die verdeckende Tag-Cloud weg und sieht den lupenreinen SEO-Text, dann könnte das bereits als grenzwertig eingestuft werden.

Stell dir vor, es ist Weihnachten – und keiner geht hin

Bei den Angeboten gibt es die an sich gute Möglichkeit, Bewertungen, Empfehlungen, Kommentare, Links oder Plus-Ones abzugeben. Bleibt diese Möglichkeit jedoch für jeden sichtbar ungenutzt, kann sich das Besucherfeeling schnell ins Gegenteil verkehren. Es entsteht der Eindruck, dass hier niemand anderes ist bzw. war. Das ist wie mit der leeren Kneipe oder dem Restaurant. Solange außer dem Wirt niemand da ist, macht das Betreten in der Regel keinen Spaß. Wer je versucht hat, mit einer Frau ein leeres Lokal zu betreten, und zumindest gefühlt hat, wie sie sich mit Händen und Füßen im Türrahmen dagegen sperrt, weiß, dass dieses Phänomen nicht zu unterschätzen ist.