Frischzellenkur – ein Dutzend Tipps zur schnellen Content-Optimierung

Eric Kubitz
Eric Kubitz

Eric Kubitz ist schon seit seinen SEO-Anfängen der Meinung, dass Seiten mit Mehrwert besser ranken sollten als Seiten mit mehr Links. Allerdings war das vor zehn Jahren noch eine Einzelmeinung. Jetzt freut er sich, dass Google dies endlich auch so sieht und dass seine Agentur CONTENTmanufaktur GmbH niemals einen Kunden an den Pinguin oder den Panda verloren hat.

Mehr von diesem AutorArtikel als PDF laden

Woran erkennt man, dass Content wirklich „gut“ ist? Das lässt sich sicher nicht pauschal beantworten, denn die Website-Ziele können natürlich sehr unterschiedlich sein. Doch es gibt einige Signale, an denen man recht schnell merken kann, ob und wie ein Webseiten-Inhalt mehr redaktionelle Aufmerksamkeit benötigt. Wenn man weiß, wohin und auf welche Metriken man genau schauen muss, sind die Maßnahmen für eine effektive Optimierung oft schnell abgeleitet. Eric Kubitz beschäftigte sich Zeit seines Berufslebens sehr intensiv und professionell mit dem Thema Content und gibt Ihnen zwölf wertvolle und vor allem praktikable Tipps zur Behebung typischer Content-Probleme und einen einfachen Sofort-Check zur Erkennung. Das Bemerkenswerte an dieser Frischzellenkur ist, dass Sie oft nicht nur Ihren Besuchern helfen, sondern eben auch bei Google gut ankommen!

Kein Wunder, dass die Content-Macher mittlerweile fest zu jedem SEO-Team gehören. Denn Google gibt ihnen immer mehr Macht über die Rankings einer Webseite. Ein bisschen WDF*IDF hier, dort ein wenig Freshness und natürlich sollten Inhalte holistisch und fokussiert sein. Alles klar? Natürlich nicht! Denn auch, wenn SEOs immer lauter „guten Content“ fordern, schauen nur wenige auf die Signale, mit denen dieser um Optimierung bittet. Dabei sind Content-Signale leicht zu erkennen und die Lösung ist meist einfach umzusetzen. Hier die häufigsten und wichtigsten Signale, die ein Webseiten-Inhalt sendet, wenn er optimiert werden möchte. Also, Ärmel hochkrempeln und anfangen!

1. Niedrige Klickrate in der Search Console

In der Google Search Console (früher „Google Webmaster-Tools“) finden sich im Menü unter „Suchanfragen“/„Suchanalyse“ massenweise spannende Werte. Darunter auch die Klickrate für jedes Keyword in den Suchergebnissen. Doch Vorsicht: Diese Klickrate muss immer in Relation zur Position des Keywords bewertet werden. Auf den ersten Plätzen sind zwanzig oder dreißig Prozent zu erwarten, auf der Position neun ist schon ein Prozent in Ordnung.

Die Optimierung: Ist die Klickrate für ein Ergebnis auf Position zwei also bei acht Prozent, ist das niedrig und somit ein starkes Signal dafür, dass das Snippet, also der Teaser im Google-Suchergebnis, nicht zum Klicken anregt. Das kann verschiedene Gründe haben, der häufigste ist sicherlich ein liebloses Title-Tag und/oder eine nichtssagende Description (Seitenbeschreibung). Das ist leider gar nicht so selten, denn viele gedankenlose SEOs sind schon zufrieden, wenn die Längen (Title-Tag circa 50 Zeichen, Description circa 150 Zeichen) stimmen, machen sich aber wenig Gedanken über den Inhalt. Dabei ist es gar nicht so schwer, die Klickrate zu erhöhen. Denn im Idealfall beantwortet das Snippet einfach folgende Fragen:

  • Welcher Inhalt erwartet den Nutzer auf dieser Seite?
  • Was ist der aktuelle Nutzen der Seite?
  • Wer ist die Zielgruppe dieser Seite?
  • Was macht diese Seite besser als andere?
  • Warum sollte ich Vertrauen zu dieser Seite haben?

2. Hohe Bounce-Rate in Google Analytics

Zunächst muss der Begriff „Bounce-Rate“ definiert werden: Damit ist die „Absprungrate nach kurzer Zeit“ gemeint, wenn also Besucher von den Suchergebnissen die Webseite besuchen und etwa nach fünf Sekunden wieder zurück zu Google springen. Das ist natürlich ein sehr negatives Signal. Absprungraten nach zum Beispiel fünf Minuten sind dagegen völlig in Ordnung. Da Google Analytics in der Grundeinstellung keine Unterscheidung macht, sollte dieser Wert mit etwas Vorsicht betrachtet oder korrekt eingestellt werden (siehe Infokasten).

Info: Adjusted Bounce Rate

Standardmäßig wird in vielen Webanalyse-Tools die Dauer der zuletzt aufgerufenen Webseite nicht korrekt ermittelt, wie wir bereits 2014 in Ausgabe 26, S. 6 berichteten. Das liegt daran, dass ja keine weitere Seite der Domain aufgerufen wird und dass daher der Webserver bzw. das zählende System kein Signal mehr bekommt, durch dessen Differenz zur Vorseite sich eine Dauer errechnen ließe. Nach dem letzten Seitenbesuch schließt man den Browser oder ruft manuell z. B. wieder Google auf. Wann das passiert, kann mangels eines auslösenden „Ereignisses“ nicht gemessen werden. Noch schlimmer ist das bei Ein-Seiten-Besuchern. Hier wird nur der Aufruf gemessen – und dann aus Sicht des Analyseprogramms eben nichts mehr. Es wird eine Besuchsdauer von 0 hinterlegt und ein sog. Bounce registriert. Hier muss also auf jeden Fall manuell nachgebessert werden, indem man auf allen Seiten ein künstliches Event hinterlegt, das ein Signal an das Webtracking sendet. Im einfachsten Fall kann das eine Zeitsteuerung sein, die z. B. nach 30 Sekunden Öffnungsdauer skriptgesteuert ein Signal sendet. In Google Analytics kann man das bequem über den Tag-Manager einrichten oder mit einer zusätzlichen Skriptzeile und dem Befehl „setTimeout“ in allen Vorlagen. Weitere Infos findet man bei Moz.com (http://einfach.st/moz4) oder direkt beim Anbieter des jeweiligen Trackingprogramms – meist unter dem Stichwort „Adjusted Bounce Rate“. Eine Anleitung für Google Analytics finden Sie hier unter einfach.st/gatime, ein Video z. B. bei GTM Training (www.youtube.com/watch?v=_p_5tcZdNLI).   

Die Optimierung: Eine hohe Bounce-Rate bedeutet also, dass der Besucher der Seite ziemlich schnell die Lust verliert und woanders weitersucht. Das kann zwei Gründe haben: Entweder passt diese Seite nicht zur Suchanfrage. Ist dies der Fall, dann wird Google dies vermutlich bald „bereinigen“ und die URL nicht mehr für das Keyword prominent ranken. Eine Optimierung würde bedeuten, den inhaltlichen Fokus der Seite komplett zu ändern. Das macht aber meist keinen Sinn.

Höchste Zeit für eine Optimierung besteht aber, wenn die Seite zum Ranking passt und die User trotzdem schnell abspringen. Neben sehr allgemeinen Problemen (etwa veraltetes Layout, zu viel Werbung, hohe Ladezeiten usw.) gilt es in diesem Fall, auf die Elemente zu schauen, die ein „schneller“ Besucher der Webseite wahrnimmt: die Headline, das Bild, der Text-Einstieg und was sonst noch im zunächst sichtbaren Bereich zu sehen ist. Passen diese Elemente überhaupt zusammen? Ergeben sie ein stimmiges und vertrauenerweckendes Bild? Und: Ist überhaupt zu erkennen, worum es auf dieser Seite geht? Bei einer hohen Bounce-Rate sind das genau die Punkte, die verbessert werden müssen.  

3. Die Conversion der Google-Besucher ist schlecht

Noch ein Blick in Google Analytics. Diesmal zur Zielerreichung: „Konvertieren“ die Besucher aus der Suche genauso wie die Besucher aus anderen Traffic-Kanälen? Ist dies nicht der Fall, gibt es wieder zwei mögliche Gründe: Erstens kann es sein, dass die Besucher über ein unpassendes Keyword kommen. Google sortiert diese Produktseite also unter ein Beratungskeyword („Wasserbett Stromverbrauch“) ein. Dann ist klar, dass diese „Informational“-Visitors schlechter konvertieren. Dann kann es sich lohnen, diese Besucher mit einem anderen Ziel (z. B. Bestellung eines Newsletters) zu messen. Kommen die Besucher allerdings über transaktionale Keywords wie „Wasserbett kaufen“, dann liegt der Fehler klar am Inhalt und dieser sollte optimiert werden.

Die Optimierung: Passt also die Suchmotivation (Kunde will kaufen), aber nicht die Conversion, scheint die Seite nicht genügend Informationen und Vertrauen zu signalisieren. Wer dann nicht gleich an einen Conversion-Optimierer abgeben möchte, kann sich ja mal fragen, welche Informationen ein Käufer benötigt, um ein Produkt zu kaufen. Denn das lässt sich sehr schnell recherchieren: Die „verwandten Suchanfragen“ unter den Suchergebnissen helfen zu verstehen, was die Kunden interessieren könnte. Denn es sind die Suchanfragen, die die ursprüngliche Suchphrase verfeinert haben. Wer diese Fragen beantwortet, trifft zumindest ein durchschnittliches Kundenbedürfnis.

4. Ein bislang gutes Ranking sinkt

Wie ärgerlich! Seit Wochen rankte die Seite für ein Hauptkeyword immer ordentlich auf Position drei, vier oder fünf – und nun sinkt dieser Stern. Dabei wurde doch gar nichts verändert ...

Die Optimierung: Das ist genau das Problem: Es wurde nichts geändert! Für jedes Keyword dreht sich die Welt jeden Tag ein bisschen weiter. Es gibt neue Wettbewerber, neue Produkte, vielleicht auch nur neue Aspekte oder geänderte Sprachgewohnheiten. Und so, wie sich diese Welt weiterdreht, muss sich auch das beste Suchergebnis dafür entwickeln.

Die gute Nachricht: Es ist nicht notwendig, jeden Beitrag auf der Webseite rhythmisch alle soundsoviel Wochen zu aktualisieren. Es ist aber sinnvoll, alle wichtigen Rankings zu überwachen, und wenn die Bewegung nach unten losgeht, sofort einzugreifen. Schon der Verlust von zwei oder drei Positionen kann ein Anlass sein, über die Aktualität einer wichtigen Seite nachzudenken. Ein schneller und einfacher Weg, eine solche Seite zu aktualisieren, wäre dieser:

  1. Die WDF*IDF-Analyse zeigt, wie weit sich die Seite thematisch vom Wettbewerb entfernt hat.
  2. Im Inhalt sinnvolle Begriffe aus der WDF*IDF-Analyse ergänzen.
  3. Einstieg, Fazit, Zwischenheadlines und ggf. die Überschrift des Beitrags entsprechend anpassen, ebenso Title-Tag und Description.
  4. Den Beitrag prominent intern verlinken – also z. B. von der Startseite mit Hinweis „aktualisiert“ und von thematisch passenden ähnlichen Seiten. 

5. Die Snippets in den Suchergebnissen ändern sich nicht

Perfekte Title-Tags und Description-Meta-Tags sorgen in den Suchergebnissen dafür, dass die guten Rankings auch angeklickt werden und Besucher auf die Seite kommen. Also werden diese nach den neuesten Erkenntnissen in Länge (Title-Tag circa 50 Zeichen, Description maximal 150 Zeichen) und Inhalt („klickoptimierend“) angepasst. Doch manchmal hat man das Gefühl, Google schläft: Die Änderungen auf den Seiten schlagen sich nicht durch – das Snippet ist selbst nach Tagen oder Wochen auf Google unverändert. Was ist da los?

Die Optimierung: Das ist ein klares Zeichen dafür, dass sich Google nicht sonderlich für die fraglichen Unterseiten interessiert und diese nur selten auf Veränderungen hin untersucht. Das kann daran liegen, dass diese Seiten nicht ausreichend intern verlinkt sind oder ihre Änderungsfrequenz von Google nahe „0“ eingeschätzt wird.

Damit die Title-Optimierungen endlich in den Suchergebnissen zu sehen sind, muss dafür gesorgt werden, dass Google die Seite mal wieder ernsthaft crawlt. Ein oder zwei prominent gesetzte interne Links auf die veränderten Seiten (z. B. von der Homepage) können dabei schnell nachhelfen. Reicht das immer noch nicht, kann in der Google Search Control unter dem Menüpunkt „Crawling/Abruf wie bei Google“ die Seite zunächst getestet und dann „an den Index gesendet“ werden. Danach dauert es nur noch kurze Zeit, bis der Crawler die Änderung kapiert hat. 

6. Statt eines neuen Beitrags rankt ein alter in den Suchergebnissen

Fast immer soll der aktuellste, der neueste Beitrag zu einem Thema bei Google möglichst oben stehen. Denn wen interessiert zum Suchbegriff „Fußball-WM“ noch die Berichterstattung für die „Fußball-WM“ 2014, wenn schon die Ankündigung für die „Fußball-WM“ 2018 auf der Seite steht? Blöd nur, dass Google gerne noch die alten Seiten besser platziert als die neuen.

Die Optimierung: Und das macht aus Google-Sicht meist auch Sinn! Denn während der neue Beitrag noch weitgehend unbekannt ist, hat der alte vielleicht einige Links von außen (und sicherlich viele interne Links) sowie positive User-Signale (z. B. eine tolle Verweildauer) gesammelt. Für Google ist der alte Beitrag also immer noch „besser“ als der neue. Das müssen wir dann wohl ändern. Dafür gibt es vier, in Sachen Wirksamkeit absteigend sortierte, Möglichkeiten:

  1. Statt einen neuen Beitrag zu schreiben, wäre es auch möglich, den alten mit neuem Inhalt zu „überschreiben“. Dann würde der neue Beitrag die guten Signale und Links des alten erben und sofort perfekt ranken.
  2. Vielleicht ist das technisch nicht möglich. Dann ist das zweitdeutlichste Signal an Google FÜR den neuen Beitrag eine 301-Weiterleitung der alten URL auf die neue URL. Allerdings ist auch in diesem Fall der alte Beitrag nicht mehr zu erreichen.
  3. Soll der alte Inhalt (also die Berichterstattung für die WM 2014) weiterhin online sein – aber bei Google nicht so prominent gelistet werden – hilft das Canonical-Tag. Dieses zeigt dann aus den Meta-Angaben des ALTEN Beitrags auf den NEUEN Beitrag (<link rel=“canonical“ href=“http://www.beispiel.de/neue-seite.htm"/>). Der alte Beitrag wird dann sehr wahrscheinlich nicht mehr bei Google gelistet, an seine Stelle tritt der neue Beitrag.
  4. Doch nicht immer ist das Setzen eines solchen Canonical-Tags möglich. Dann bleibt nur noch die interne Verlinkung: Im ALTEN Beitrag muss ein Link auf den NEUEN Beitrag erstellt werden – am besten mit dem entsprechenden Keyword („Fußball-WM“) im Anchor-Text. Zusätzlich sollte darauf geachtet werden, dass möglichst viele weitere interne Links mit „Fußball-WM“ auf den neuen Beitrag zeigen – und möglichst KEINE internen Links mit „Fußball-WM“ mehr auf den alten Beitrag. Das ist zwar das schwächste der vier möglichen Signale – aber in aller Regel genügt es für die korrekte Einordnung in den Suchergebnissen.

Übrigens: Es lohnt sich natürlich, VOR dem Erstellen eines Beitrags die Aktualisierungen zu planen. Etwa bei wiederkehrenden Ereignissen ist es sinnvoll, gleich die Jahreszahl in der URL wegzulassen.

7. Sichtbarkeit der mobilen Suche sinkt – trotz Responsive-HTML

Das HTML wurde auf „Responsive“ umgestellt, der Inhalt für die Darstellung im Smartphone deutlich gekürzt. Und trotzdem sinkt die Sichtbarkeit oder steigt zumindest nicht.

Die Optimierung: Auch wenn es für viele Fälle plausibel erscheint, ist es nur eine grob verallgemeinernde Annahme, dass mobile Inhalte „kürzer“ sein sollten als Desktop-Inhalte. Denn nicht selten wird auf dem Handy recherchiert und am Desktop gekauft. Das setzt aber umfassende Produktinformationen auf dem Smartphone voraus, weniger Länge ist dann sogar schlechter. Solche Verallgemeinerungen helfen also nicht immer weiter.

Deshalb: Wie sieht der mobile Anwendungsfall tatsächlich aus? In welcher Situation steckt der Kunde, wenn er gerade „Wasserbett“ ins Handy eingibt? Steht er im Ladengeschäft und sucht nach Preisinformationen? Oder will er den Weg in ein Ladengeschäft finden? Dann braucht er möglicherweise völlig andere Informationen als ein User, der mit dem Desktop auf die Seite kommt. Eine mobile Strategie sollte auf diese Fragen antworten – und wenn die mobilen Rankings sinken, tut sie das aktuell offenbar nicht.

8. Mehrfach-Rankings in den Suchergebnissen

Was soll schlimm daran sein, wenn eine Domain für ein wichtiges Keyword mit verschiedenen Unterseiten auf den Positionen 12, 28 und 56 in den Google-Suchergebnissen rankt? Ganz einfach: Für drei solche mittelguten Rankings benötigt die Domain so viel Energie wie für ein einziges Ranking zum Beispiel auf Position 6 (also im sichtbaren Bereich von Google). Offensichtlich machen sich die drei Unterseiten also gegenseitig Konkurrenz.

Die Optimierung: Klar, es gibt auf die Frage, die hinter dem Keyword „Wasserbett Sicherheit“ steht, mehrere Antworten. Da geht es um die Sicherheit vor Wasserschäden, aber auch um die elektrische Sicherheit – denn Wasser und Strom gehören nicht unbedingt zusammen. Und schließlich stellt sich die Frage, ob die Statik im Haus wirklich ausreicht für Hunderte Liter Wasser plus Schrank plus Schlafende. Das alles sind potenzielle Sicherheitsfragen, die möglicherweise auf unterschiedlichen Seiten beantwortet werden – warum sollten diese nicht alle von Google angezeigt werden? Ganz einfach: Weil die beste Antwort auf die Frage „Wasserbett Sicherheit“ entweder ALLE diese Antworten enthält oder eine Übersicht mit den Links auf die Unterbeiträge. Denn jede nur einzelne Antwort auf die Frage ist unvollständig.

Das ist der Grund, warum man Suchanfragen möglichst „holistisch“ beantworten sollte. Und genau das ist nicht gut gelungen, wenn Google sich nicht für eine einzige Seite entscheiden kann und mehrere Seiten auf unterschiedlichen Positionen anzeigt.

Was ist zu tun? Die beste, relevanteste dieser Seiten sollte ausgewählt und als „Navigation“ für alle anderen Unterfragen rund um „Wasserbett Sicherheit“ aufgebaut werden. Von dort geht es dann vielleicht zu den anderen Antworten – oder die anderen Antworten werden in diese Seite integriert. Und – sehr wichtig: Alle anderen Seiten, die sich um die Sicherheit von Wasserbetten drehen, werden mit dem Link „Wasserbett Sicherheit“ auf die führende Seite verlinkt.

9. Doppelte Title-Tags in der Search Console

Unter „Darstellung der Suche/HTML-Verbesserungen“ finden sich in der Google Search Console Listen von doppelten Title-Tags und Meta-Beschreibungen (womit die Meta-Description gemeint ist). Diese Mehrfach-Inhalte können zwei Gründe haben: Einerseits ist es möglich, dass ein Title-Tag mehrfach redaktionell vergeben wird. Doch das ist der unwahrscheinlichere Fall. Viel wahrscheinlicher ist, dass es sich um einen technischen Defekt handelt, durch den die gleiche Seite unter mehreren URLs ausgespielt wird.

Die Optimierung: Natürlich sollten diese doppelten Meta-Angaben zunächst redaktionell geprüft werden. Handelt es sich um manuelle Dopplungen, sollten diese behoben werden. Vermutlich müssen dann nicht nur die Title-Tags, sondern auch die Fokussierung der beiden Seiten nachgeschärft werden.

Handelt es sich um einen technischen Fehler, ist das ein Fall für die Entwickler ...

10. Eine einzelne URL rankt für viele unterschiedliche Keywords

Ist das nun ein Zeichen dafür, dass eine URL besonders stark oder besonders verzettelt ist? Wenn eine einzelne URL für sehr viele und auch unterschiedliche Keywords rankt, ist diese zwar – zugegebenermaßen – stark. Aber der Inhalt darauf ist offensichtlich nicht „fokussiert“, und das bremst die mögliche Sichtbarkeit.

Die Optimierung: Manchmal ist es nur ein schmaler Grat zwischen holistischen und verzettelten Inhalten. Wobei man hier einen Unterschied zwischen „Navigation“ und „Inhalt“ machen sollte: Sehr allgemeine Keywords (z. B. „Damenschuhe“) deuten auf ein Navigationsbedürfnis des Besuchers hin. Wer so etwas bei Google eingibt, will sich orientieren. Für eine solche Suchanfrage kann der Inhalt gar nicht breit genug sein – aber er braucht nicht in die Tiefe zu gehen. „Pumps“, „Sandalen“, „Stiefel“, „Übergrößen“ und große Brand-Namen sind dafür eine gute Antwort. Aber es ist nicht notwendig oder gar sinnvoll, den Unterschied zwischen Pumps und High Heels exakt herauszuarbeiten oder auf die verschiedenen Materialien von Sandalen einzugehen. Diese Tiefe ist Beiträgen vorbehalten, die auf konkretere Suchanfragen eingehen. Fokussiert ein Beitrag auf „High Heels“, sollte er sich mit Materialien, Farben und vielleicht Gehtipps beschäftigen.  

Wird also ein Beitrag von Google für sehr unterschiedliche Suchanfragen einsortiert, kann dies an seiner „Navigationsaufgabe“ liegen, etwa bei Kategorieseiten. Dann ist es aber auch fast unmöglich, für ein Spezialthema zu ranken, also etwa für „Pumps“ bleibt er auf Position 38 und für „High Heels“ auf Position 42, obwohl er für Damenschuhe auf Platz 5 rankt. Klar, denn dieser Beitrag ist KEINE perfekte Antwort auf das eine oder andere Keyword, sondern auf den Oberbegriff. Wer dies optimieren möchte, braucht schlicht eine neue Seite, die sich mit „High Heels“ beschäftigt.

Dies kann übrigens der Beginn einer wunderbar wachsenden Beitragsstruktur sein: Wer über die Search Console oder ein Tool wie Searchmetrics oder Sistrix auch die schlechter positionierten Keywords beobachtet und diese zum Anlass für neue Beiträge nimmt, wird nach und nach ein perfektes Themennetzwerk aufbauen. Dies ist sicherlich der organischste Weg, eine Webseite wachsen zu lassen.

11. Die falsche URL rankt für das richtige Keyword

Wenn Conversion- und Suchmaschinen-Optimierung nicht koordiniert wird, gibt es häufig eine aus Sicht des Seitenbetreibers optimale Unterseite (etwa eine Produktseite) – aber in den Suchergebnissen wird eine andere Unterseite hartnäckig besser platziert.

Die Optimierung: Das kann sehr unterschiedliche Gründe haben. Gut möglich etwa, dass ein technischer Bug dafür sorgt, dass die richtige Seite gar nicht in den Index darf oder kann. Zum Beispiel ein falsches Canonical-Tag, ein unvorsichtiger Eintrag in der robots.txt oder ein unguter Meta-Robots-Eintrag. Das sollte gecheckt werden. Ob die Seite technisch überhaupt ranken könnte, lässt sich am einfachsten erkennen, wenn auf Google nach der Headline und einem Text-Schnipsel gesucht wird. Erscheint sie dabei nicht, läuft technisch etwas schief.

Erscheint sie aber schon, stellt sich die Frage, warum Google der Meinung ist, dass eine andere Seite besser gerankt werden sollte. Hier einige Möglichkeiten:

  1. Die „richtige“ Seite ist derart conversionoptimiert, dass gar kein Inhalt mehr darauf zu finden ist. Das ist gar nicht mal so selten und logischerweise kann Google die Seite dann nicht mehr ordentlich einordnen. Zur Optimierung müsste also relevanter Content eingebaut werden.
  2. Die „falsche“ Seite ist intern (und vielleicht sogar extern) besser und klarer verlinkt. Vielleicht ist sie in die Navigation eingebunden, die „richtige“ Produktseite aber nicht. Vielleicht ist die „richtige“ Seite auch eine hübsch gestaltete Landingpage, die gar nicht im Redaktions- oder Shop-System erstellt wurde und dementsprechend auch nicht automatisch verlinkt wird. Auch das muss dann angepasst werden.
  3. Die internen (und externen) Linktexte zeigen auf die „falsche“ Seite: Der Anchor-Text ist ein starkes Signal für das Keyword, für das eine Seite rankt. Zeigen also die Texte der internen Links auf die falsche Seite, kann Google denken, das wäre die richtige Seite.

Aber vielleicht geht es auch nur um eine einzige Kleinigkeit, ein Signal, das schnell und wirkungsvoll eingebaut werden kann: Es sollte ein prominenter Link mit dem richtigen Keyword-Text von der „falschen“ auf die „richtige“ Seite zeigen. Damit ist der erste Schritt gemacht.

Meist helfen hier übrigens auch die vier Möglichkeiten von Tipp Nummer 6: Überschreiben, umleiten, Canonical-Tag oder mit dem Keyword verlinken.

12. Gut wachsende, allgemeine Sichtbarkeit – aber nur wenige Rankings auf den Top-10-Plätzen

In Searchmetrics und Sistrix steigt die Sichtbarkeit ordentlich an – auch bei den Lieblings-Keywords. Allerdings steigt der Traffic nicht entsprechend. Und eine genauere Analyse der Positionen in den Rankings zeigt, dass diese vor allem ab Position 11 starten.

Die Optimierung: Ein solches Verhalten ist häufig bei recht neuen oder sehr stark wachsenden Domains zu beobachten. Hier scheint die Suchmaschine zunächst einmal zu checken, was die Domain draufhat. Für „kleinere“ und vielleicht weniger umkämpfte Keywords gibt es dann testweise Top-Positionen, anhand derer Google erkennen kann, wie sich die Besucher auf der Seite verhalten: Ist die Verweildauer im Wettbewerbsumfeld in Ordnung? Was macht die Absprungrate? Es scheint, man könne in einem solchen Fall nur abwarten, was die „Tests“ von Google ergeben und welches Urteil gesprochen wird. Doch das scheint nur so.

Denn die beste Therapie für dürftige Top-Suchergebnisse ist: Stärken, stärken! Statt immer neue Seiten zu basteln, sollten die besten vorhandenen Seiten mehr optimiert werden. Es geht dabei um Seiten, die jetzt schon eine ordentliche Positionierung (zwischen 11 und 30) aufweisen können UND die gut bei den Besuchern ankommen. Also Seiten mit geringer Bounce-Rate und hoher Verweildauer. Und es geht um Seiten, die schon auf guten Positionen sind und in der Search Console eine Klickrate zeigen, die aber noch nicht optimal ist.

Werden diese ohnehin schon „guten“ Seiten zu „großartigen“ Seiten mit noch höherer Klickrate, noch längerer Verweildauer und noch geringerer Bounce-Rate gezüchtet, ist das ein deutliches Signal an Google, was die Domain kann. Und vermutlich werden nicht nur die optimierten Seiten in einen sichtbaren Bereich ranken, sondern auch weitere.

Und wie erfolgt diese Optimierung? So wie eigentlich jede Content-Optimierung gemacht werden soll: In Google und in einem W-Fragen-Tool zeigt sich, was die Leute zum Thema wissen wollen. In einem WDF*IDF-Tool kann man recherchieren, welche Begriffe von Google als „vertrauenerweckend“ angesehen werden können. Dies alles wird gut strukturiert geschrieben, mit einer passenden Headline überschrieben und mit den passenden Meta-Angaben versehen. Dann nur noch veröffentlichen und ordentlich in die interne Verlinkung einfügen. Fertig!