Take a look inside!

Was Webmaster von den neuen Google Quality Rater Guidelines lernen können

Olaf Kopp
Olaf Kopp

Olaf Kopp ist Co-Founder und Head of SEO der Aufgesang GmbH. Er ist Moderator des Podcasts Content Kompass und Mitveranstalter des SEAcamps. Seit 2009 betreibt Olaf Kopp einen der renommiertesten deutschen Online-Marketing-Blogs. Er ist Speaker auf Events wie z. B. CMCx, OMX oder Rheinwerk Konferenz und Autor Hunderter Fachbeiträge. Seit 2005 beschäftigt er sich mit nutzerzentrierten Online-Marketing. Kernthemen sind semantisches SEO, Content-Marketing- und Online-Marketing-Strategien entlang der Customer-Journey.

Mehr von diesem AutorArtikel als PDF laden

Die internen Google Quality Rater Guidelines erklären den menschlichen Bewertern, wie Webseiten zu sehen, zu analysieren und zu bewerten sind. Im November 2012 wurde die erste Version 1.0 aufgelegt und kursierte bereits kurze Zeit später im Netz. Bei Google entschied man sich daher, sie öffentlich für jedermann ins Netz zu stellen. Mittlerweile ist eine stark überarbeitete Version 5.0 erschienen. Allerdings ist diese nur zum internen Gebrauch, „proprietary and confidential“ und offiziell im Web nicht verfügbar. Olaf Kopp hat sich das 160 Seiten dicke Werk ausführlich angesehen, zwischen den Zeilen gelesen und für Sie wichtige Learnings extrahiert. Es ist vorteilhaft zu wissen wie Google „tickt“, weil man dort ständig den Nutzer und dessen Zufriedenheit im Auge hat und daher die Informationen der Such-Evaluatoren permanent in die Verfeinerung des Such-Algorithmus einfließen lässt. Nur so kann man dem Idealbild der perfekten Suchergebnisse schrittweise näherzukommen. Und letztendlich ist es nicht  nur für das Ranking gut, wenn die Suchenden die eigenen Seiten nützlich finden…

Was sind die Quality Rater Guidelines?

Die Quality Rater Guidelines, von Google „General Guidelines“ genannt, umfassen aktuell in der Version 5.0 (Stand März 2014) 160 Seiten mit Informationen bzw. Hinweisen an die Such-Evaluatoren für die Bewertung von Suchergebnissen in der „Beta-Phase“. Google selbst beschreibt das Dokument wie folgt:

„Dieses Dokument ist eine Version unserer Richtlinien zur Auswertung der Suchqualität, die als Lehrmaterial für die sogenannten Such-Evaluatoren (Search Evaluators) eingesetzt werden. Der Fokus des Dokuments liegt auf der Bewertungsaufgabe ‚URL-Rating‘. Diese Aufgabe besteht darin, dass ein Evaluator Suchanfragen und die möglichen Ergebnisse überprüft. Bewertet wird die Relevanz des Ergebnisses für eine Anfrage gemäß einer Skala, die im Dokument zu finden ist.“ (Quelle:einfach.st/ga45)

Die General Guidelines wurden bisher, bis auf einmal im Frühjahr 2013, nur an die Such-Evaluatoren ausgegeben und nicht offiziell herausgegeben. Im Februar/März 2013 gab es zum ersten und letzten Mal eine offizielle, aber verkürzte Version der Guidelines. Es war die Version 1.0 mit dem Erstellungsdatum 02. November 2012. Alle weiteren Versionen bis zur heutigen Version 5.0 wurden ohne Googles Zutun inoffiziell in Umlauf gebracht. Ob diese „Leaks“ aus PR-Gründen insgeheim von Google gewollt waren, darüber kann man nur spekulieren. Websites, die Versionen der Richtlinien zum Download anboten, wurden in der Vergangenheit von Google aufgefordert, diese zu entfernen.

Die Aufgabe der Such-Evaluatoren

Such-Evaluatoren beschäftigt Google zur Verbesserung der Qualität der eigenen Suchergebnisse bzw. zur Verbesserung des Such-Algorithmus. Wichtig ist dabei zu erwähnen, dass die Bewertungen der Such-Evaluatoren keinen direkten Einfluss auf die Suchergebnisse bei bestimmten Suchbegriffen haben. Das wäre aufgrund der Menge an indexierten Inhalten und täglich neu entstehenden Suchanfragen auch schlichtweg unmöglich. Die Einteilung nahezu aller Rankings wird immer der Google Such-Algorithmus übernehmen. Aber wie die folgende Grafik von Google zeigt, spielen die Bewertungen der Such-Evaluatoren eine wichtige Rolle innerhalb der Weiterentwicklung des Algorithmus.

2011 wurden 41.831 Ideen gemeldet und 538 davon in Algorithmen überführt

Alles beginnt bei der Algorithmus-Weiterentwicklung mit einer Entwickler-Idee. Laut Google waren es 2011 ca. 41.831 vorgeschlagene Ideen. Die Such-Evaluatoren bekommen nicht offizielle Suchergebnisse präsentiert, bei denen die neuen Ideen in einer Testumgebung umgesetzt wurden. Die Informationen aus den Bewertungen der Such-Evaluatoren werden von den Algorithmus-Entwicklern zur Nachbesserung genutzt oder die Idee wird gleich in dieser ersten Phase verworfen. In der zweiten Phase werden den Such-Evaluatoren zu bestimmten Suchbegriffen Suchergebnisse der neuen Algorithmus-Version vorgelegt und diese im Vergleich zu den aktuellen Suchergebnissen bewertet. Erst bei positivem Feedback werden die „neuen Suchergebnisse“ einer begrenzten Anzahl realer Nutzer in einem „Live-Experiment“ ausgespielt. Die Nutzersignale, wie z. B. CTR, nutzt Google dann, um die endgültige Freigabe für die neueste Algorithmus-Version zu erteilen. Durch diesen Prozess wurden laut Google im Jahr 2011 von den 41.831 eingereichten Ideen 538 im Algorithmus umgesetzt.

Die Transformation von der menschlichen zur technischen Bewertung

Zuallererst ist es wichtig abzuwägen, welche der in den Guidelines aufgeführten Bewertungskriterien in welcher Form algorithmisch bzw. technisch berücksichtigt werden können. Google muss aufgrund der Informationen der Such-Evaluatoren Muster zum einen für Spam, zum anderen für nutzwertigen Inhalt erkennen, um sowohl Dokumente als auch Domains algorithmisch bewerten zu können. Nur anhand dieser Muster lassen sich Handlungsempfehlungen für die Entwickler zur Optimierung des Algorithmus ableiten.

Eine echte Qualitätsprüfung ist alles andere als einfach!

Gerade was die Qualität von Inhalten angeht, ist das keine einfache Aufgabe. Google weist an mehreren Stellen in den Guidelines auf den notwendigen Mehrwert des Inhalts für den Nutzer hin. Selbst für einen Such-Evaluator ist die Bewertung eines Inhalts aus qualitativer Sicht nicht immer ein einfaches Unterfangen, insofern der Inhalt keine typischen Muster für Spam aufweist. Eine solche Aufgabe von einem Algorithmus erledigen zu lassen, scheint nahezu unmöglich. Deswegen greift Google bisher auf externe Signale wie z. B. Links zurück.

Art und Zweck von Websites

Zum Beginn der General Guidelines weist Google darauf hin, dass sich die Such-Evaluatoren unbedingt mit dem Zweck von Websites auseinandersetzen sollen. Es werden einige genannt:

  • Teilen von Informationen zu einem Thema
  • Teilen von persönlichen Meinungen
  • Teilen von Videos, Bildern etc. zu einem Thema
  • Unterhaltung
  • Verkaufen von Produkten oder Dienstleistungen
  • Stellen von Fragen und Beantworten der Fragen
  • Teilen von Dateien und Downloaden von Software

Eine wichtige Kategorie für Google sind Websites, die mit ihren Informationen und Angeboten Gemüt, Gesundheit und Vermögen der Nutzer beeinflussen können. Google nennt diese Seiten „Your Money or Your Life”-Seiten, kurz YMYL-Seiten. Auf den Grund, aus dem man diese Art von Websites aus SEO-Sicht gesondert betrachten sollte, wird später noch genauer eingegangen.

So bewerten die Such-Evaluatoren Inhalte und Websites

Seit der Version 5.0 der Quality Rater Guidelines hat Google ein Bewertungsverfahren eingeführt, das sich auf zwei wesentliche Bereiche konzentriert:

  1. Website/Domain im Allgemeinen (PQ-Rating)
  2. Landingpage in Bezug auf die Suchanfrage im Speziellen (Utility-Rating)

Über das Utility-Rating sollen die Such-Evaluatoren in den Test-Suchergebnissen zu bestimmten Suchbegriffen gelistete Landingpages in Bezug auf die Suchanfragen bewerten. Dabei kann der Landingpage eine der folgenden Bewertungen gegeben werden:

  • Vital (nur einmal pro Suchbegriff möglich): Damit eine URL als vital eingestuft werden kann, muss sie eine Navigationsabsicht befriedigen und/oder zu einer zum Suchbegriff passenden offiziellen Website einer Entität, z. B. einer Person, einer Unternehmung, eines Orts oder einer Organisation führen. Das unterstreicht auch Googles Bemühungen, markeneigene Seiten zu fördern. Anders gesagt muss bei der Suchanfrage eindeutig sein, dass genau diese Seite gesucht wird. Zu bestimmten allgemeingültigen Begriffen, die keine Entität sein können, wie z. B. Diabetes, Möbel, Autos …, darf kein Suchergebnis als vital bewertet werden.
  • Useful (mehrfach möglich): Useful ist eine Seite, die gut zu einer Suchanfrage passt und nützlich für den Nutzer ist.
  • Relevant (mehrfach möglich): Relevante Seiten sind Landingpages, die immer noch der Suchintention des Nutzers entsprechen, aber nicht so inhaltsreich, aktuell oder verlässlich wie die als useful eingestuften Seiten sein müssen. Die Qualität muss dennoch überdurchschnittlich sein.
  • Slightly relevant (mehrfach möglich): Slighty relevant trifft auf Seiten zu, die schon irgendwie mit dem Thema der Suchanfrage zu tun haben, aber nicht besonders hilfreich sind, z. B. aufgrund schlechter Qualität. Als Beispiel werden auch Landingpages für mobile Endgeräte genannt, die für Suchanfragen der Nutzer, die Desktop- oder Laptop-Rechner nutzen, nicht hilfreich sind.
  • Off-topic or useless (mehrfach möglich): Seiten, die nur sehr wenigenoder gar keinen Nutzern einen Mehrwert bieten, sollen als off-topic oder useless gekennzeichnet werden. Seiten, die ausschließlich Werbung und ausgehende Links enthalten, gehören zu dieser Kategorie und sollten zusätzlich als Spam markiert werden. Nutzlose Seiten sollen generell, auch wenn sie im PQ-Rating gut abgeschnitten haben, mit der schlechten Utility-Rating-Bewertung versehen werden. Die Auszeichnung mit dem Prädikat vital ist unabhängig von der PQ-Bewertung, also von der Qualität der Seite im Allgemeinen.

Das PQ-Rating bewertet sowohl die Landingpage als auch die gesamte Domain unabhängig von der jeweiligen Suchanfrage.

Als Bewertungshilfe stehen in den Richtlinien eine ganze Reihe von Beispielen zur Veranschaulichung zur Verfügung. Hier einige Beispiele aus der Version 1.0:

Bewertung auf Landingpage-Ebene und Domain-Ebene

Für das PQ-Rating empfiehlt Google den Such-Evaluatoren, sich auf der gesamten Website umzusehen. Dazu sollen auch der Betreiber der Website und Autoren identifiziert werden. Zudem soll der Zustand der Website ermittelt werden, z. B. ob Verlinkungen funktionieren, ob Bilder geladen werden oder ob die Inhalte aktualisiert werden.

Für SEOs bedeutet dies, dass das Thema Website-Hygiene eine wichtige Rolle spielt. Externe und interne kaputte Links, 404-Fehlerseiten und die Verfügbarkeit der Bilder sollten regelmäßig im Rahmen der Website-Hygiene überwacht bzw. repariert werden. Diese Signale kann Google technisch identifizieren und sie sind schon seit Jahren fester Bestandteil des Ranking-Algorithmus.

Die Autorität einer Domain ist wichtig!

Diese beiden Rating-Formen zeigen, worauf es Google ankommt, nämlich nicht nur auf die Bewertung einzelner Dokumente bezogen auf einen bestimmten Suchbegriff, sondern auch auf die Beschaffenheit und Autorität der Domain.

Die Such-Evaluatoren sollen sich ein Bild über die Reputation der Website machen. Dazu sollen sie sich auf unabhängige Informationen verlassen und sich nach Informationen aus objektiven Quellen umsehen. Für die Recherche gibt Google Tipps, z. B. mit Suchoperatoren zu arbeiten. 

Es macht für SEOs somit durchaus Sinn, im Rahmen der Linkquellen-Recherche ebenfalls mit Suchoperatoren zu arbeiten und thematisch gut rankende Seiten als Linkquelle bzw. Ansprache für das Outreach von Content-Marketing-Kampagnen in Betracht zu ziehen.

Man macht den Such-Evaluatoren die Arbeit einfacher, indem man von der eigenen Seite z. B. unter Referenzen, Pressebereich etc. auf Fachartikel, Berichte sowie weitere Engagements verweist. So sind diese Informationen sowohl für Menschen als auch für Bots schneller zu erkennen.

Markenaufbau ist wichtig für Domainbewertung

In der Version 5.0 hat Google mit E-A-T neue Bewertungskriterien in die Guidelines im Rahmen des PQ-Ratings aufgenommen.

Damit wird der Zusammenhang zwischen Expertise, Autorität und Vertrauenswürdigkeit beschrieben (Expertise – Authoritative – Trustworthy).

  • Quality and quantity of Main Content. Examine the MC carefully. Given the purpose of the page, evaluate the quality and quantity of MC.
  • Level of expertise, authoritativeness, and trustworthiness (E-A-T) of the page and the website. The level of E-A-T is extremely important for YMYL pages.
  • Reputation of the website. The reputation of a website is very important when the website demands a high level of trust.

PQ-Bewertungen gemäß E-A-T sollen dabei unter Berücksichtigung sowohl der jeweiligen Landingpage als auch der kompletten Website durchgeführt werden. Für Foren, Frage-Antwort-Portale und Enzyklopädien gelten dabei unterschiedliche Bewertungskriterien.

Der Schlüssel dazu ist der Aufbau einer Marke bzw. Autorität. Expertise sowie Vertrauen bzw. Reputation sind neben Popularität wichtige Eigenschaften einer Marke bzw. Autorität (siehe Abbildung 4).

Gerade für die genannten „Your Money or Your Life“-Seiten sind Expertise, Vertrauenswürdigkeit und Reputation sehr wichtig. Suchanfragen nach Produkten spielen hier eine besondere Rolle:

„Often, the results for product queries are YMYL pages. Users need high quality information from authoritative sources when researching products, especially when products are expensive or represent a major investment/important life event (e.g., cars, washing machines, computers, wedding gifts, baby products). When buying products, users need websites they can trust: good reputation, extensive customer service support, etc. Results for product queries may be important for both your money and your life (YMYL)!“ 

Für Portale z. B. der Klatschpresse hingegen spielt die Domain-Autorität eine nicht so große Rolle.

Your Money or Your Life!

Gerade für Websites im YMYL-Umfeld sind Transparenz über die betreibende Person bzw. Organisation und ausführliche Informationen über das Geschäft entscheidend für das Vertrauen. Auf folgende Merkmale für nicht vertrauenswürdige Seiten soll man achten:

  • Seiten, die offensichtlich nach Betrug aussehen
  • Seiten, die persönliche Daten ohne ersichtlichen Grund abfragen
  • Seiten mit verdächtigen Download-Links

Des Weiteren sollen gehackte Seiten und Seiten mit vielen offensichtlichen Spam-Kommentaren schlecht bewertet werden.

Marken bzw. Autoritäten ranken einfacher für generische Begriffe

Eine sehr interessante Aussage aus den Guidelines ist folgende:

„When the query is a broad category, such as [cafes] [restaurants] [hotels] [books] [tourist attractions in paris] etc., popular and prominent examples may be considered very helpful.“

Das bedeutet, dass bekannte Marken und Autoritäten bezogen auf sehr generische Begriffe, die in der Regel über ein hohes Suchvolumen verfügen, einen Vorteil haben. Ein Grund mehr, sich mit dem Aufbau einer Marke auseinanderzusetzen.

Um die Relevanz dieses Punktes für SEO abzuleiten, ein kleiner Ausflug in die Semantik.

Entitäten & Ontologien

In der Semantik ist eine Entität eindeutig durch einen Identifier und bestimmte Eigenschaften gekennzeichnet. Entitäten sind auch immer Teil einer Ontologie. Entitäten können Personen, Bauwerke, Unternehmen etc. sein. Ontologien beschreiben das Umfeld, in dem sich die Entitäten befinden. Übertragen auf Google bedeutet es, dass man zum einen beweisen muss, eine Entität zu sein. Zum anderen muss man belegen, dass man innerhalb einer Ontologie eine gewisse „Entitäten-Relevanz“ hat, also im Endeffekt eine Marke und/oder Autorität oder zumindest Experte ist.

Das Thema Marketing spielte bisher in der Suchmaschinenoptimierung nur in Bezug auf die eigenen Markenbegriffe eine Rolle. Sich als Marke bzw. Autorität in einem bestimmten Themenbereich zu etablieren, konnte von SEOs in der Prä-Hummingbird-Ära ausgeblendet werden. Doch spätestens mit der endgültigen Einführung der semantischen Suche durch das Hummingbird-Update änderten sich große Teile der Einflussfaktoren für das Ranking.

Der Schlüssel ist Relevanz

Google legt immer größeren Wert darauf, wie relevant man als Entität, Autorität und Marke in einem oder mehreren Themenbereichen ist. Deswegen wird das Marketing zukünftig eine entscheidende Rolle dabei spielen, ob man in Suchmaschinen, insbesondere bei Google, gefunden wird oder nicht. 

Wenn man sich die bereits erwähnten Erkennungsmerkmale für eine Marke im Zusammenhang mit den Begrifflichkeiten Marke sowie Autorität genauer betrachtet und in Verbindung mit Signalen bringt, die Google über Dienste bzw. Anwendungen wie Google Analytics, Chrome, Webmaster-Tools, Android … schon jetzt ohne Weiteres auf breiter Masse identifizieren kann, sieht es wie folgt aus.

Wie erkennt Google eine Marke bzw. Autorität?

Wie bereits erwähnt, möchte Google, dass die Such-Evaluatoren eine Marke bzw. Vertrauenswürdigkeit, Autorität und Expertise erkennen. Nachfolgend einige Möglichkeiten, wie Google auch technisch in der Lage wäre, Markeneigenschaften einer Entität bzw. Domain zuzuordnen.

Eine Marke lässt sich wie bereits beschrieben über eine gewisse Popularität allgemein oder zumindest einen Themenbereich erkennen. Übertragen auf messbare Werte sind dies z. B.:

  • Höhe und Entwicklung des Suchvolumens nach der Marke und/oder Domain: Höhe und Entwicklung des Suchvolumens nach eindeutig der jeweiligen Marke zugeordneten Suchbegriffen sagen etwas darüber aus, wie populär eine Marke ist. Durch klassisches Marketing, Werbung und PR lassen sich diese Signale beeinflussen.
  • Das Verhältnis zwischen der Anzahl an Suchanfragen nach der Marke bzw. Domain und den Klicks auf das Suchergebnis: Diese Annahme beruht auf einem Patent von Google, wie in einem Beitrag auf MOZ erläutert wird (moz.com/blog/panda-patent-brand-mentions ). Ist die Klickrate auf einem Listing bei einer Suchanfrage überdurchschnittlich hoch, kann Google darüber den Markenbegriff mit der Domain zusammenbringen und basierend darauf Nennungen der Marke ohne direkte Verlinkung erkennen.

Eine Autorität identifiziert sich in erster Linie durch Reputation und Vertrauen. Folgende Signale kann Google für die Erkennung heranziehen:

  • Co-Occurrences und Co-Citations
  • Verweise bzw. Verlinkungen aus themenrelevanten Medien
  • Conversions
  • Hoher Anteil wiederkehrender Besucher
  • Influencer-Beziehungen und -Interaktionen
  • Blogkommentare
  • Anzahl Social-Media-Kontakte
  • Soziale Interaktionen im Allgemeinen
  • Verweildauer
  • Absprungraten

Main Content trennen von Werbung

Google klassifiziert Inhalte auf Landingpages nach

  • Main Content (MC)
  • Supplementary Content (SC)
  • Advertisements (Ads).

Besonderen Wert legt Google dabei auf Inhalte im Main Content (MC). Deswegen macht es aus SEO-Sicht Sinn, diesen Bereich bereits im Quellcode klar erkenntlich herauszuheben, z. B. über html5 <article> - Mark-up. Zudem ist es sinnvoll, Werbung so weit wie möglich aus dem MC-Bereich auszulagern. Zwar schreibt Google, dass Werbung auf einer Website grundsätzlich nicht schlecht ist, aber nicht zur Verwechslung mit dem MC führen sollte:

„We have to look at many factors when rating Page Quality and page design is just one aspect to consider. Think about whether the page is functional and whether the MC is easy to find. Think about whether the Ads interfere with the MC or if the Ads can be mistaken for the MC.”

Das Page-Layout-Algorithmus-Update ist hier ein gutes Beispiel dafür, wie Google versucht, die Empfehlungen an die Such-Evaluatoren auch technisch im Algorithmus zu berücksichtigen.

"Wird mit Werbung übertrieben, straft Google sogar Seiten mit AdSense Anzeigen ab, mit denen sie Geld verdienen."

Sobald eine Seite den Anschein macht, als Hauptzweck Werbung auszuliefern, wird diese schlecht bewertet. Deswegen sollte man bei der Platzierung von Werbeflächen darauf achten, dass der eigentliche Zweck der Seite für den Nutzer immer noch z. B. die Information bzw. Transaktion ist.

Content-Menge ist wichtig

Die Textlänge wird sogar in den General Guidelines als Qualitätssignal genannt. So heißt es im Abschnitt zum PQ-Rating:

„Quality and quantity of Main Content. Examine the MC carefully. Given the purpose of the page, evaluate the quality and quantity of MC.”

Dazu passt auch diese Aussage zur Bewertung von Wikipedia-Artikeln:

„Naturally, Wikipedia articles with very little MC should get lower PQ ratings.”

Wie bereits erwähnt, fällt es Google schwer, die inhaltliche Qualität eines Textes über den technischen Weg nur aufgrund des Contents selbst zu bewerten. Die Textlänge kann Google hingegen im Indexierungs-Vorgang einfach ermitteln und zum Vergleich mehrerer Dokumente heranziehen. Die Qualität des Inhalts wird derzeit über Verweise und wahrscheinlich zukünftig über die bereits genannten Nutzer- und Engagement-Signale wie z. B. Google+-Erwähnungen technisch ermittelt.

Suchintention des Keywords passend zur Landingpage

Die Suchintention von Suchbegriffen war schon immer ein zentrales Thema der Guidelines. So weist Google in dem PDF ausdrücklich darauf hin, dass die Such-Evaluatoren die Suchanfrage und die dominierende Intention dahinter verstehen müssen. Sonst sollten sie mit dem nächsten Suchbegriff weitermachen. Nur so können sie die rankende Landingpage richtig bewerten und evaluieren, ob die Landingpage den entsprechenden Zweck erfüllt. Will jemand etwas kaufen, ist er auf einer Produktübersichtsseite richtig. Will er objektive Informationen im Rahmen einer Vorab-Recherche, ist z. B. ein informativer Produkttest oder ein ausführlicher ganzheitlicher redaktioneller Beitrag besser geeignet.

SEOs tun deswegen gut daran, im Rahmen der Keyword-Recherche wichtige Keywords auf die Suchintention hin zu analysieren. Ist es kommerziell bzw. transaktions- oder informationsorientiert? Nur so lassen sich adäquate Landingpages erzeugen, die den Zweck haben, die Suchintention zu befriedigen.

"Den Anlass einer Suche sollte man immer im Auge behalten."

Google kann die Suchintention hinter einer Suchanfrage über historische Nutzerdaten ermitteln. So kann Google aufgrund des Klickverhaltens und theoretisch auch über das Verhalten des Nutzers auf bzw. mit der Landingpage nachvollziehen, ob ein transaktionsorientiertes oder informationsorientiertes Bedürfnis bei der eingegebenen Suchanfrage besteht.

Aktualität und Lokalität nur wichtig für bestimmte Begriffe

Das Verstehen der Keywords ist auch wichtig, um herauszufinden, ob ein Bedürfnis an aktuellen bzw. neuen Informationen besteht oder die Suchanfrage einen regionalen Bezug besitzt. Google nennt in den Guidelines einige Begriffe, für die ein Bedürfnis an Regionalität ermittelt wurden, z. B. Pizza, Zeit, Kaffees, Bahnstation, Schwimmbad, Zahnärzte …

Zudem werden Begriffe mit nicht regionalem Bezug genannt, so z. B. hotmail, Übersetzung, Beyonce, Oscars 2012, Bank of America login, Tanzvideos …

In puncto Wichtigkeit für die Aktualität von Inhalten differenziert Google auch zwischen den Suchbegriffen. So gibt es Kategorien von Suchbegriffen, die aktuelle Inhalte benötigen. In den Guidelines werden genannt:

  • Suchanfragen zu brandaktuellen Neuigkeiten, z. B. Tornado
  • Suchanfragen zu wiederkehrende Event-Meldungen. z. B. Olympiade, American Idol, Wahlen …
  • Informationsgetriebene Suchanfragen, die sich verändern, wie z. B. Einwohner Paris
  • Suchanfragen zu Produkten, die sich weiterentwickeln, wie z. B. iPhone, Windows-Betriebssystem …

Google weist in den Guidelines darauf hin, dass das Datum der Veröffentlichung eines Beitrags nicht immer mit dem Aktualisierungsdatum übereinstimmen muss. Such-Evaluatoren sollten deswegen die Wayback-Machine nutzen, um sich die Entwicklung eines Beitrags anzusehen.

Für SEOs bedeutet es, dass man grundsätzlich überlegen sollte, ob ein Suchbegriff eines aktuellen oder regionalen Inhalts bedarf. Dadurch erweitern sich die Suchintentionen transaktionsorientiert, navigationsorientiert bzw. brand- und informationsorientiert um regional bzw. aktuell. Dazu sollte man sich für eine bessere Einschätzung wie bei den klassischen Suchintentionen auch an den jeweiligen auf der ersten Seite rankenden Inhalten orientieren.

Inhalte, die Aktualität benötigen, sollten regelmäßig erneuert werden und können zusätzlich mit dem Aktualisierungsdatum versehen werden, damit sie schnell als aktueller Inhalt zu erkennen sind.

Das Design einer Seite ist unwichtig für das Ranking

Aus den Guidelines geht klar hervor, dass das Design einer Website nicht in die Bewertung einfließen soll. Der Fokus soll auf den Inhalten liegen. Dabei gilt es natürlich zu berücksichtigen, dass auf ein anspruchsvolles Design nicht verzichtet werden soll, da Nutzersignale und Abschlussraten durchaus durch das Design beinflussbar sind.

Foren & Q&A-Seiten sind nicht generell von schlechter Qualität

In Bezug auf Foren weist Google in den Guidelines darufhin, dass der User Generated Content aus Foren und Q&A-Portalen grundsätzlich nicht als schlecht bewertet werden soll. Die Such-Evaluatoren sollen sich ein Bild davon machen, ob ein nutzwertiger Erfahrungsaustausch stattfindet. Das zeigt, dass Foren und Q&A-Portale generell nicht zu verachten sind. Bei der Recherche nach Plattformen für sinnvolle Forenarbeit sollte man sich deswegen auch an deren Ranking und Sichtbarkeit orientieren.

Wikipedia-Artikel zur eigenen Marke helfen beim Markenaufbau

An mehreren Stellen der Guidelines verweist Google auf Wikipedia als vertrauenswürdige Informationsquelle. Gerade mit Blick auf die E-A-T-Bewertungskriterien sollten Unternehmen in Betracht ziehen, Wikipedia als PR-Instrument zu nutzen. Google kann einfach Nennungen und Verweise aus Wikipedia technisch ermitteln und wird diese höchstwahrscheinlich berücksichtigen, um die Reputation einer Website einzuschätzen. Dafür spielen die mit nofollow gekennzeichneten Links keine Rolle.

Insofern das eigene Unternehmen über eine entsprechende gesellschaftliche Relevanz verfügt, ist ein eigener Wikipedia-Eintrag durchaus sinnvoll.

Das kontextuelle Umfeld optimieren

Der sogenannte Supplementary Content, zu Deutsch ergänzender bzw. zusätzlicher Inhalt, scheint auch ein wichtiger Grund dafür zu sein, Seiten mit einer überdurchschnittlichen Bewertung zu versehen. Deswegen mach es Sinn, weiterführende Informationen zu einem Thema anzubieten. Ob man diese auf einem einzigen Onepager zusammenführt oder als „Satelliten-Seiten” rund um eine Landingpage verteilt, ist nicht entscheidend. Wichtig ist einfach nur, dass man ein Thema ganzheitlich mit ergänzenden Informationen zu Nachbarschafts-  bzw. Randthemen versieht.

Content, Content, Content

Der Main Content (MC) spielt in vielen Punkten der Richtlinien eine wichtige Rolle. So erwähnt Google folgende Merkmale für schlechte Inhalte:

  • Kein Main Content
  • Main Content mit offensichtlichem Keyword-Stuffing
  • Unsinniger bzw. Inhalt ohne Aussage
  • Automatisch generierte Inhalte
  • Kopierte Inhalte

Generell sollte man bei der Erstellung von Inhalten immer den Anspruch haben, das beste Dokument im Netz zu dem jeweiligen Thema zu veröffentlichen. Der Aufwand, der dahintersteckt, hängt entscheidend vom Wettbewerb ab. Deswegen sollte man sich genau mit dem auf der ersten Suchergebnisseite rankenden Content auseinandersetzen und sich folgende Fragen stellen:

  • Was kann ich besser machen?
  • Wie umfangreich ist der bestehende Inhalt auf den anderen Seiten?
  • Welchen Aufwand muss ich betreiben, um bessere Inhalte zu erzeugen?
  • Steht dieser Aufwand im Verhältnis zum Nutzen?

Die wichtigsten Erkenntnisse aus dem General Guidelines abschließend zusammengefasst

Für jeden Suchmaschinenoptimierer und Webmaster ist ein Blick in die General Guidelines sinnvoll. Die Version 1.0 gibt es wie weiter oben erwähnt als PDF offiziell zum Download. Gerade mit Blick darauf, wie Google die eigenen Suchergebnisse gern hätte, kann man für die eigene SEO- und Marketing-Arbeit vieles ableiten.

Hier noch mal die wichtigsten Empfehlungen

  • Etabliere die eigene Domain als Marke bzw. Autorität in der eigenen Branche.
  • Verstehe die Suchintention hinter jeder relevanten Suchanfrage und schaffe dementsprechend passenden Content.
  • Arbeite an der Reputation über PR, sinnvoller Forenarbeit, Engagement auf Messen, Konferenzen … und in Fachmedien und weise darauf hin.
  • Zeige Transparenz über schnell ersichtliche Informationen zur Website und dem Betreiber.
  • Nutze Wikipedia durch Mitarbeit in der Community ohne zu kopieren und zu spammen
  • Schaffe die besten Dokumente/Inhalte, die es im Netz zu einem Thema gibt und verbreite Sie über Social Media und PR-Outreach