Umstrittene Rankingfaktoren

Julian Dziki
Julian Dziki

Wie andere Fußballprofi werden wollen, so war Julian schon immer von Online-Marketing fasziniert. 2007 begann er auf Seokratie.de zu bloggen und machte seine Leidenschaft zum Beruf. Mit der Zeit wurde aus dem Blog eine Agentur für Online-Marketing. Heute arbeiten in der Münchner Agentur rund 20 Mitarbeiter in den Bereichen SEO, SEA, Content-Marketing, Social Media und Usability. Im August erscheint sein erstes Buch „Suchmaschinen-Optimierung für Dummies“.

Mehr von diesem AutorArtikel als PDF laden

Im SEO-Bereich gibt es viele Rankingfaktoren, die von den meisten Suchmaschinenoptimierern anerkannt sind. Eine gute Linkstruktur, eine optimale Verwendung von Keywords und vieles mehr werden kaum noch infrage gestellt. Einige Faktoren jedoch sind stark umstritten. Um genau jene geht es Julian Dziki in diesem Artikel. Willkommen in der Welt der obskuren Rankingfaktoren!

Disclaimer: Ein Artikel über umstrittene Faktoren muss immer spekulativ sein. Zudem könnte, selbst wenn konkrete Beobachtungen auf einen Zusammenhang hinweisen, letztlich doch die Korrelation im Spiel sein und weniger die Kausalität.

Im Klartext: Wer eine großartige Facebook-Fanpage hat, der hat tendenziell auch auf seiner Website bessere textliche Inhalte als ein Social-Media-Muffel. Dementsprechend lässt sich oft beobachten, dass Websites mit guten Facebook-Fanpages in der Regel auch bessere Rankings haben. Sie haben die besseren Rankings allerdings nicht wegen der Facebook-Seite, sondern weil die entsprechenden Seitenbetreiber mehr Wert auf qualitativ hochwertige Inhalte legen.

Trotzdem hilft es, wenn man sich ab und zu vor Augen führt, was Google noch so alles in den Algorithmus mit einberechnen könnte. Denn wenn Suchmaschinenoptimierer eines wissen, dann Folgendes: Der Algorithmus wird ständig weiterentwickelt und verbessert!

Nutzersignale

Die ominösen Nutzersignale kommen oft zur Sprache, wenn das Ranking nicht so ganz gelingen will. Ob Nutzersignale für einzelne Websites oder Keywords erhoben werden, ist nicht zuletzt in der SEO-Szene heftig umstritten (www.sem-deutschland.de/nutzersignale-rankingfaktor-google/). Wie sie erhoben werden, kann nur spekuliert werden.

Fakt ist: Google wertet aus, wie zufrieden seine User mit Suchergebnissen sind. In welchem Umfang und ob dabei tatsächlich einzelne Websites oder nur der Algorithmus als Ganzes getestet werden, das ist nicht klar. Eine Live-Berechnung hätte den Nachteil, dass sie sehr rechenintensiv wäre, zudem ständig überprüft werden müsste – nicht, dass die Daten irgendwann nicht mehr richtig funktionieren. Besser wäre vermutlich ein Hochrechnen, also eine Simulation. Der unschlagbare Vorteil: Eine Website bräuchte gar keinen Traffic zu besitzen, um die Qualität herauszufinden – denn die Qualität könnte Google durch eine Simulation von Nutzersignalen quasi vorhersehen.

Wie Google die Nutzerzufriedenheit nun genau in den Algorithmus bringt, das ist letztlich auch nicht entscheidend. Wichtiger ist die Konsequenz: Man muss dafür sorgen, dass sowohl das Suchergebnis wie auch die einzelne URL dem User das geben, wonach er sucht.

Spätestens das Google-Panda-Update zeigte 2011, dass Nutzersignale eine wichtige Rolle spielten. Damals wurden qualitativ schlechte Websites im Ranking zurückgestuft, während gute Websites mit dem exakt gleichen Themengebiet gewannen. Der Preisvergleich Ciao.de wurde hart von diesem Update getroffen, während dessen Konkurrent Idealo.de Rankings hinzugewann (Abbildung 1).

Time-On-Site (wie lange Nutzer laut Analytics auf der Website verweilen), Absprungrate (wie viele Nutzer von der URL wieder zurück zu den Suchergebnissen wandern, ohne weiter zu klicken) und viele andere Kennzahlen wurden herangezogen, um Rückschlüsse zu ziehen. Letztlich stellte sich heraus, dass nur Google die richtige Kennzahl besitzt – und niemand weiß, wie sie genau berechnet wird.

Als gesichert gilt: Wenn Nutzer mit einer Website unzufrieden sind, dann wirkt sich das früher oder später negativ auf das Ranking aus. Die sogenannten „Short-Clicks“ (Abbildung 2) könnten dabei eine große Rolle spielen. Wobei viele Suchmaschinenoptimierer (und auch Google) oft darauf hingewiesen haben, dass ein Short-Click auch bedeuten kann, dass ein Nutzer sofort gefunden hat, wonach er gesucht hat. Interessant wäre es daher zu wissen, was der Nutzer unternimmt, nachdem er den Zurück-Button gedrückt hat. Ebenso, ob es nicht zu einer Suchanfrage mehrere Intentionen gibt, die verschiedene Ergebnisse benötigen.

„Wenn jemand eine Anfrage eingibt und sie kurz darauf ändert, ist klar, dass er mit den Ergebnissen nicht zufrieden ist“, sagte Amit Patel, Mitarbeiter Nummer 7 bei Google im Buch „In the Plex“ von Steven Levy. Die Daten darüber, welche Keywords und Ergebnisse das betrifft, hat allerdings nur Google.

Was beeinflusst Nutzersignale und damit das Ranking?

Viele Dinge können das Verhalten von Websitebesuchern beeinflussen:

  • Usability und UX (User Experience): Logischerweise ist immer das erste Stichwort, was Suchmaschinenoptimierer beim Thema Nutzerverhalten ausrufen, „Usability“. Die Website muss natürlich gut, also frustfrei bedienbar sein. Das erzeugt zufriedene Nutzer. Trivial in der Sache – in der Umsetzung ist das meist eine ganz andere Geschichte.
  • Das Webdesign: Eine grafisch gut durchdachte Website bringt zufriedenere Nutzer hervor als ein Pixelchaos. Aber nicht nur das Design, auch die Farben spielen eine Rolle. Blau signalisiert Vertrauen und Sicherheit – deswegen sind viele Finanzwebsites vornehmlich blau gehalten. Facebook ebenso. Schwarzer Hintergrund und gelbe Schrift? Nur, wenn das zur Branche passt! Der Artikel unter www.websitebuilderexpert.com/how-to-choose-color-for-your-website/ gibt viele Beispiele für gut oder schlecht gewählte Farben. User kaufen nicht nur lieber in Online-Shops mit der richtigen Farbe, sie surfen auch lieber dort. Dementsprechend kann bereits die Farbwahl eines neugegründeten Unternehmens ein Rankingkriterium sein!
  • Die Seitenladegeschwindigkeit ist wahrscheinlich nicht nur für sich wichtig, sondern auch doppelt in Sachen Nutzersignalen. Eine langsame Website führt zu unzufriedenen Nutzern. Wenn sich das häuft, kann sich das negativ auf das Ranking auswirken.

Die Klickrate (CTR)

Wenn man bereits für ein Keyword eine gute Position hat, dann ist die Klickrate eine sehr wichtige Kennzahl. Sie sagt an, wie viele Prozent der Suchenden auf ein bestimmtes Suchergebnis klicken. Wenn von 100 Suchen 30 Nutzer auf das Suchergebnis an Position 1 klicken, dann hat dieses Suchergebnis eine Klickrate (oder auch CTR = Click-Through-Rate) von 30 Prozent.

Google testet schon lange Suchergebnisse dahingehend, dass man einmal probeweise das Suchergebnis am eigentlichen Platz 2 an Position 1 stellt und sich anguckt, ob die Klickrate genauso hoch oder gar höher als beim „eigentlichen“ Platz 1 ist. Anscheinend ist eine hohe Klickrate auf vordere Positionen ein Qualitätskriterium für Suchergebnisse. Bei Google Adwords wird eine hohe CTR durch einen niedrigeren Klickpreis belohnt. 

Wer als SEO sein angezeigtes Suchergebnis, also Title und Description, auf eine höhere CTR optimiert, der bekommt als Belohnung meist auch eine bessere Position. In Abbildung 3 sieht man, dass eine Verbesserung der CTR zeitlich versetzt mit einem deutlich besseren Ranking einhergeht. Nach der Änderung der Description verbesserte sich zunächst die Click-Through-Rate, wobei die Position gleich blieb. Nach kurzer Zeit jedoch verbesserte sich auch das Ranking der entsprechenden URL zu diesem Keyword.

Dass man mit besseren Titles und Descriptions bessere CTRs und bessere Rankings bekommen kann, ist fast schon trivial. Nur, was beeinflusst aber die CTR jenseits von Title und Description?

  • Die URL wird ebenso angezeigt. Besonders der Domainname scheint einen großen Einfluss zu haben. Bekannte Unternehmen und Marken haben in der Regel eine höhere CTR als unbekannte. Somit kann es für das Ranking relevant sein, wie bekannt die Marke ist.
  • Je bekannter die Marke, desto besser die CTR, desto besser das Ranking? Im Umkehrschluss würde es bedeuten, dass markenbildende Aktionen einen positiven Effekt auf das Ranking haben. Radiowerbung und Prospekte zu verteilen, kann also für bessere Rankings sorgen!
  • Google bestreitet, dass Google AdWords einen positiven Effekt auf die organischen Suchergebnisse hat. Einen direkten Effekt gibt es auch nicht. Indirekt beeinflusst AdWords allerdings auch die organische CTR und damit logischerweise das Ranking. Groß angelegte Werbekampagnen bei AdWords, die viele Menschen erreichen, haben quasi nebenbei einen markenbildenden Effekt. Es ist Tatsache, dass Website-User wahrscheinlicher auf ein organisches Suchergebnis klicken, wenn die gleiche Domain auch in einer Anzeige erscheint. Ebenso klicken Nutzer eher auf ein Ergebnis, wenn Sie die Domain bereits (möglicherweise unbewusst) in Anzeigen wahrgenommen haben. Einen ausführlichen Artikel dazu gibt es von Rand Fishkin unter Moz.com/blog/how-google-adwords-ppc-affects-organic-results.
  • Die Domainendung hat einen starken Einfluss auf die CTR. In der Theorie und laut Aussagen von Google ist es für das Ranking irrelevant, ob man eine .de-Domain oder eine – korrekt ausgerichtete – .biz-Domain des gleichen Namens verwendet. Beide behandelt Google gleich. In der Praxis zeigt sich allerdings, dass eine eher nach Spam anmutende Top-Level-Domain oft eine niedrigere Klickrate bekommt. User sind nicht neutral und klicken lieber auf für sie logisch erscheinende TLDs. Die meisten User klicken daher lieber auf Versicherungsmakler.de als auf Versicherungsmakler.biz. Mit der falschen Domainendung hat man also einen klaren Rankingnachteil!

Jenseits von Links: Traffic und Co-Citations

Gute Links sind elementarer Bestandteil für ein gutes Ranking. Das weiß jeder SEO. Doch welche anderen Offpage-Faktoren, die wenig mit SEO zu tun haben, könnten noch Einfluss auf das Ranking einer Website haben?

Schon lange im Verdacht steht der tatsächliche Besucherstrom, den ein Link auf eine Website leitet. Frei nach dem Reasonable-Surfer-Patent, das Google bereits 2004 eingereicht hat, vererben diejenigen Links mehr Linkpower, die öfter geklickt werden. Fraglich ist heute nur, ob Google diese Daten einzeln sammelt (via Browserdaten) oder lediglich kalkuliert und simuliert.

Letzteres wäre zwar etwas ungenauer, aber deutlich kostensparender. Wie auch immer Google die Klickdaten misst – der Algorithmus macht es höchstwahrscheinlich. Was aber bedeutet das?

Die Konsequenz wäre:

  • Nofollow-Links, die zwar keinen Linkjuice weitervererben, aber viel Traffic bringen, würden doch ins Ranking mit hineinzählen. Schon lange haben SEOs bei Wikipedia-Links den Verdacht, dass diese gute Rankings bescheren – trotz Nofollow. Wenn Google diesen Trafficstrom von Wikipedia zu anderen Websites als positives Signal wertet, könnte das die Rankingverbesserungen erklären.
  • Social-Media-Aktivitäten wollen von Google erkannt und ausgewertet werden. Facebook & Co. machen es dem Crawler allerdings nicht unbedingt leicht. Um keine falschen Daten geliefert zu bekommen (oder plötzlich vor einem kaputten Algorithmus zu stehen, wenn Facebook den Googlebot vollständig aussperrt), wäre es am einfachsten, auf Browserdaten zurückzugreifen. Auf die Weise könnte Google viele Daten auswerten (etwa mit Google Chrome). Facebook müsste schon den Chrome-Browser blockieren, um Google diese Daten wegzunehmen.
  • Google könnte sehr viel leichter minderwertige Links erkennen. Unnatürliche Links sind damit (unter anderem) einfach diejenigen, die keinen Traffic bringen – trotz Besuchern auf der linkgebenden URL.
  • Eine Website ist in Sachen SEO nicht gerade fit, bringt aber einen erstklassigen Newsletter heraus? Oder verteilt sich durch Mund-zu-Mund-Propaganda, per WhatsApp oder gar offline? In diesem Fall könnte Google auch hier mit Browserdaten den Trend erkennen und die Seite in den Suchergebnissen stärker bevorzugen.  

Natürlich ist das alles eher Spekulation. Links werden vermutlich noch zu großen Teilen „klassisch“ berechnet. Allerdings würde die Messung (oder Simulation) von Trafficströmen die Datenbasis verfeinern.

Keywords einmal anders

Die richtigen Keywords sind wichtig für ein gutes Ranking – das weiß jeder, der sich auch nur fünf Minuten mit dem Thema SEO beschäftigt hat. Doch haben Worte auch eine andere Funktion im Algorithmus, als nur ausgelesen zu werden?

Was SEOs oft vergessen, ist der große Anteil, den die Semantik (also die Wortbedeutungslehre) im Algorithmus hat. Bekannt und beliebt ist die WDF*IDF-Analyse, die – ganz salopp gesagt - bestimmte Terme vorschlägt, die im Zusammenhang mit einem Keyword unbedingt erwähnt werden sollten.

Wendet Google noch mehr Semantik für die Bewertung von Websites an? Die Wahrscheinlichkeit ist sehr hoch.

Hier nun die letzte Welle an Spekulationen:

  • Die bloße Erwähnung von Websites oder Markennamen könnte einen Einfluss auf das Ranking haben. Insbesondere, weil gerade Zeitungsredaktionen heute fast gar nicht mehr verlinken. Wenn ein Start-up auf SPIEGEL Online erwähnt wird – zählt Google das ähnlich wie einen Link?
  • Die Erwähnung bestimmter Wörter könnte eine größere Bedeutung haben, als man meinen möchte. So behandelt Google sogenannte „Your money or your life“-Themen, die das Leben eines Menschen stark positiv oder negativ beeinflussen können (wie Gesundheit, Finanzen, Kindeserziehung) deutlich strenger als normalen Content. Ein Mini-Kriterium könnte etwa sein, dass Artikel über Gesundheit einen Doktortitel in der Nähe der Autorenbox benötigen, um zu verifizieren, dass der Artikel vertrauenswürdig ist. Nach dem Motto „Nur Ärzte dürfen zu medizinischen Themen gute Rankings haben“ könnte Google hier tatsächlich das Vorkommen eines Namens mit dem Präfix „Dr.“ als Rankingkriterium gewichten.
  • Zu guter Letzt könnte man aus der Kombination von Semantik und KI eine Menge relevanter Daten holen. Dass Google auch Fließtext semantisch auswertet, das weiß man spätestens, seit es Featured Snippets gibt. Um auf Position 0 zu kommen (siehe Abbildung 4), reicht es, vereinfacht dargestellt, wenn man die richtigen Worte benutzt. Was, wenn Google noch in anderer Weise die Semantik bedient? Braucht man einen Warenkorb in der rechten oberen Ecke der Website, wenn man für „[Keyword] kaufen“ weit vorne ranken möchte? Sollte ein Restaurant einen Menüpunkt „Speisekarte“ haben und einen für „Tisch reservieren“, um in einer Stadt mit der Suchkombination „Restaurant [Stadt]“ gut gefunden zu werden?

Es würde zumindest Sinn machen, wenn man teilweise Semantik benutzt, um Websites zu klassifizieren. Im Umkehrschluss könnte eine sehr gut gemachte Website nicht gut ranken, wenn sie sich nicht an Konventionen ihrer Branche halten würde. Oder würde sie es vielleicht doch, weil die positiven Nutzersignale die Verfehlung bei den Konventionen wieder wettmachen würde?

Fazit

Alle das Ranking beeinflussenden Faktoren in diesem Artikel könnten zwar bereits im Einsatz sein – das ist aber sehr unwahrscheinlich. Die meisten existieren vermutlich gar nicht. Trotzdem schadet es nicht, sich einmal Gedanken darüber zu machen, welche bereits aktiv sein könnten – oder das in der Zukunft vielleicht noch werden!

Mit gutem Onpage-SEO, guten Links und guten Inhalten kommt man immer voran. Man sollte allerdings nicht vergessen, dass es links und rechts von Suchmaschinenoptimierung mit Nutzersignalen, Trafficströmen oder Semantik eine Menge Daten gibt, die Google auswerten kann – und es vielleicht auch jetzt bereits macht.