Mit datengetriebenen Analysen zur optimalen Content-Strategie

Markus Tober
Markus Tober

Marcus Tober ist nicht nur als Gründer, CTO und treibende Kraft von Searchmetrics über einschlägige SEO-Kreise hinaus bekannt, sondern auch als Impulsgeber und Experte auf vielen internationalen Bühnen unterwegs. Der „Big-Data- und Statistik-Freak“ ist bei Kongressen, Symposien und Think Tanks weltweit ein gefragter Gast und Keynote Speaker. Als Stratege hinter der Searchmetrics Suite macht er mit Leidenschaft das Thema Search-Analyse zur Grundlage für jegliche Weiterentwicklungen der Software.

Mehr von diesem AutorArtikel als PDF laden
Daniel Furch
Daniel Furch

Daniel Furch ist als Head of Content Marketing bei Searchmetrics Leiter eines Teams aus Content-Marketern und Designern für Content, Analysen und Research sowie die Aufbereitung dieser Inhalte etwa in Form von Studien oder im Blog verantwortlich. Der studierte Sprachwissenschaftler fühlt sich vor allem in der Schnittstelle zwischen Marketing, Datenanalyse, SEO und Grafik wohl und kümmert sich um die Konzeption, die strategische Ausrichtung und die Erstellung von Unternehmensinhalten.

Mehr von diesem AutorArtikel als PDF laden

Pauschale Aussagen wie „SEO ist tot! Content ist King!“ haben sich zwar längst abgenutzt, fallen jedoch immer wieder. Doch was ist dran? Fakt ist: Weder stirbt SEO noch bestimmt Content allein über Online-Erfolge. Der richtige Ansatz sollte es sein, die Stärken von SEO-Maßnahmen unter Verwendung von Big-Data-Analysen für die optimale Performance von Online-Inhalten zu nutzen. Hierbei spielen insbesondere die Umorientierung von Keyword- zu URL-basierten Auswertungen sowie ein Fokus auf holistische Themen und Textsemantik statt purer Wortfrequenzen eine Rolle. Marcus Tober und Daniel Furch von SEO-Tool-Anbieter Searchmetrics zeigen auf, wie man aus ihrer Sicht das Thema Suchmaschinenoptimierung und Content datengestützt erfolgreich zusammenbringen kann. 

„Die Diversität der Suchergebnisse hat abgenommen – heute ranken für ähnliche Suchanfragen öfter die gleichen Ergebnisse.“

Die Bereiche „SEO“ und „Content“ standen sich vom Arbeitsansatz her lange Zeit scheinbar unvereinbar gegenüber. Suchmaschinenoptimierung galt einerseits, überspitzt formuliert, als Oberbegriff für Maßnahmen, „irgendwas mit Keywords und Links an der Seite zu optimieren“, damit diese besser bei Google gefunden wird, ohne dabei groß auf Inhalte zu achten. Gleichzeitig lag auf der anderen Seite lange Zeit das Problem von Online-Content darin, ohne entsprechende Maßnahmen trotz Textqualität im Internet schlichtweg nicht gefunden zu werden. Die maschinellen Algorithmen zur Bewertung inhaltlicher Relevanz waren einfach noch nicht so weit.

SEO + Content – passt das zusammen?

Diese Zeiten haben sich geändert. Doch weder ist SEO jetzt tot noch kommt es einzig und allein auf das Abstraktum „gute Inhalte“ an. Wie so oft liegt der Schlüssel zum Erfolg in der goldenen Mitte.

Heute können datenbasierte Analysen, die zu den Paradedisziplinen eines guten SEOs gehören – wenn sie richtig angewendet werden –, nicht nur die Erstellung und Performance von Content skalierbar machen. Sie können auch Autoren bei der Erstellung spezifischer Texte eine strategische Quelle an nützlichen Informationen darüber liefern, wie und mit welchen Mitteln Themen strukturiert werden können und welche Aspekte eines Themas in welchem Zusammenhang relevant sind. Das können je nach Suchintention (Kaufen?, Informieren?, Navigieren?) völlig andere sein.

Generell verschwimmen beide Arbeitsbereiche zunehmend, wodurch neue Tätigkeitsfelder entstehen, wie etwa das Content-Marketing. Und diese Entwicklung wird sich fortsetzen. Eine der treibenden Kräfte hierbei ist die Evolution der Algorithmen von Suchmaschinen.

SEO: Eine Branche verändert sich

Die Evolution von Google hat unter anderem zur Folge, dass der Ansatz zur Bewertung von Online-Dokumenten immer komplexer wird. Spätestens seit Hummingbird – einer Anpassung, mit der Google im Sommer 2013 quasi den Motor seiner Suchmaschine einmal komplett ausgetauscht hat – sinkt auf Textebene der Einfluss „klassischer“ SEO-Faktoren wie etwa der puren Keyword-Dichte auf die Suchergebnisse zugunsten semantischer Parameter. Things, not Strings, heißt die Devise.

So zeigte Google vor Hummingbird für zwar verschiedene, jedoch inhaltlich stark ähnliche Begriffe mit nahezu übereinstimmender Suchintention größtenteils völlig unterschiedliche Suchergebnisse an. Suchende der Keyword-Kombination „Jeans Herren“ bekamen noch Anfang 2013 auf der ersten Google-Ergebnisseite acht (von zehn) völlig andere URLs angezeigt als Nutzer, die stattdessen „Männer Jeans“ in den Suchschlitz eintippten.

Mittlerweile sind Suchmaschinenalgorithmen zunehmend in der Lage, die Suchintention hinter vielen Keyword-Anfragen thematisch zu interpretieren und zu erkennen, dass eine vertauschte Reihenfolge oder die Verwendung von Synonymen in den meisten Fällen nicht zwingend eine andere Suchintention bedeutet. Dies hat zur Folge, dass für mehrere Keywords mit ähnlicher Suchintention mittlerweile auch oft dieselben Dokumente ranken, was wiederum dazu führt, dass die Anzahl unterschiedlicher Suchergebnisse in den letzten Jahren messbar abgenommen hat.

Tipp: Checklisten-SEO

  • Keyword im Seitentitel
  • Keyword in der Meta Description
  • Keyword mehrmals im Text
  • Keyword in der Zwischenüberschrift
  • Keyword fett markiert
„Hallo, ich bin Harald und ranke für ‚Kredit‘ auf der Eins.“

So zeigen Untersuchungen auf sehr großer Keyword-Basis, dass insbesondere für informationsgetriebene Keywords diese Abnahme der Diversität auf URL-Basis nach Einführung von Hummingbird zeitweise sogar bis zu 10 % betrug (http://einfach.st/smhum).

Das einzelne Keyword an sich verliert folglich an Relevanz und tritt zugunsten der eigentlichen Landingpage in den Hintergrund, die – wenn sie über inhaltliche Relevanz verfügt – gleich für einen ganzen Cluster an verwandten Suchbegriffen auffindbar ist.

Diese Entwicklung hat zweierlei Folgen:

Erfolgsmessung: Vom Keyword zur Landingpage

War früher die Analyse von Online-Erfolg primär keywordgetrieben, sollte heute die Performance einer konkreten URL als solche im Fokus stehen.

Der Ansatz, für ein bestimmtes Keyword ranken zu wollen, hat zu pauschalem „Checklisten-SEO“ und im Extremfall zu solch absurden Strategien geführt, für jede erdenkliche Keyword-Variation und -Kombination eine einzelne Landingpage zu erstellen. Ziel war, für jede mögliche Wortkombination, bis in den Longtail hinein, mit einem spezifischen Ergebnis vertreten zu sein, um den User-Klick schließlich zu bekommen. Ein Klassiker dabei: der 300-Worte-Text.

Irrelevanz durch Überangebot

Seiten, die so arbeiteten, gab es viele. Schließlich funktioniert es und teilweise tut es das in einigen Nischen immer noch. Ein ehemals besonders erfolgreicher Vertreter dieser sogenannten Content-Farmen, ehow.com, verfügt im englischsprachigen Google-Index noch heute über eine dreistellige Zahl an Landingpages zum Thema „Schwanger werden“. Da kommt schnell die Frage auf, was für uns Menschen neben der altbewährten Methode noch infrage kommt. Mit Ausnahme der künstlichen Befruchtung dürfte lediglich eventuell Boris Becker noch eine dritte Fortpflanzungsmethode bekannt sein.

Eine solche Überproduktion ähnlicher Inhalte, wie Content-Farmen sie praktizierten, erzeugt zwangsweise Irrelevanz, die weder dem Nutzer dient noch im Sinne des Geschäftsmodells von Suchmaschinen ist, die sich durch diesen „Müll“ crawlen müssen. Seit den Panda-Updates, mit denen Google genau diesen Spam aus dem Index zu kehren versucht, hat dieses Geschäftsmodell glücklicherweise größtenteils ausgedient. Demand Media, der Konzern hinter ehow.com, hat an der Börse infolge dieser Entwicklungen 2 Mrd. Dollar an Firmenwert verloren.

„Im Longtail sind die Conversions am höchsten, jedoch in der Regel nicht mehr spezifisch messbar!“

Content-Performance auf URL-Ebene

Früher war es tatsächlich so, dass sich SEOs untereinander mit dem Satz vorstellten: „Hallo, ich bin Harald und ranke für ‚Kredit‘ auf der Eins.“

Obwohl sich bezüglich der Relevanzbewertung von Seiten der Fokus vom einzelnen Keyword weg verschiebt, erfolgt die Performance-Analyse auch heutzutage faktisch noch größtenteils auf Keyword-Basis.

Doch wie sinnvoll ist es, sich durch die Information, dass das wichtigste Keyword auf Position 1 rankt und womöglich konstant Traffic auf die Seite generiert, in trügerischer Sicherheit zu wiegen, wenn zur gleichen Zeit die Performance der gesamten Seite einbricht, weil etwa die Umsatz treibenden Landingpages für verwandte Suchanfragen und auch im Longtail nicht (mehr) ranken? Im Longtail sind die Conversions bekanntlich am höchsten, jedoch noch nicht oder nur sehr schwer tatsächlich mess- oder nachvollziehbar (unter anderem auch wegen der „Keyword Not Provided"-Problematik).

Info: Searchmetrics Content-Performance

Das neue Content-Performance-Modul in der Research Cloud von Searchmetrics ermöglicht Ad-hoc-Analysen jeder verfügbaren URL. Dadurch lassen sich auf Knopfdruck einerseits die wichtigsten Seiten einer Domain und andererseits die URLs mit dem größten Potenzial identifizieren, ohne im Vorfeld Datenprojekte anlegen und auf Crawlings warten zu müssen. Weiterer Vorteil: Wettbewerberanalysen auf Seitenbasis – und damit im granularen Marktumfeld – werden möglich.

Die mit über 250 Milliarden ständig aktualisierte Datenobjekte Datenbank sowie komplexe Berechnungen machen dabei diese Auswertungen erst möglich.

Hier ist eine Umstellung auf URL- statt keywordbasierte Performance-Messung der logische Schritt. Diese Möglichkeit bieten Tools am Markt schon seit einiger Zeit an, die allesamt einen Nachteil haben: Es müssen im Vorhinein ein bestimmtes Keyword-Set und teilweise auch die zu beobachtenden URLs definiert und die Crawlingphase abgewartet werden. Ad-hoc-Analysen waren bisher nicht möglich. Die Auswirkung auf konkrete Maßnahmen heißt: Fokussierung und Qualität.

Eine holistische Seite statt mehrerer kurzer Inhalte

Es ist langfristig strategisch deutlich erfolgversprechender, eine hervorragend konstituierte umfangreiche als viele verschiedene und sehr ähnliche Landingpages zum selben Thema zu erstellen. Unter der Voraussetzung, dass diese eine Seite über wirklich relevanten Inhalt verfügt, rankt sie sehr wahrscheinlich nicht mehr einfach nur für ein Fokus-Keyword, sondern für viele verschiedene Keywords aus dem gesamten Themenbereich. Denn Suchmaschinen „verstehen“ heute, dass man mit holistischen Inhalten für ein bestimmtes Thema relevant ist und nicht nur für ein Wort oder eine Wortgruppe. Damit werden die Inhalte nicht nur bis in den Longtail hinein performant, ohne die exakte Wortabfolge oder einzelne Terme daraus überhaupt im Content selbst abzubilden. Gleichzeitig steigt die User-Zufriedenheit.

Die Seite symptomat.de – laut Eigendefinition ein Medizin-Lexikon & Gesundheits-Ratgeber – ist ein sehr gutes Beispiel hierfür:

Die historische Entwicklung der SEO-Visibility der Seite, die die Sichtbarkeit der Domain in den organischen Suchergebnissen widerspiegelt, zeigt langfristig einen positiven Trend und aktuell eine recht stabile Performance, und das in einem thematisch sehr stark umkämpften Marktumfeld.

Wichtigste URLs und Potenziale identifizieren

Unter Eingabe der Domain in die Reseach Cloud von Searchmetrics lassen sich nun per Knopfdruck im Modul Content-Performance die wichtigsten URLs sowie Potenziale dieser Website und Informationen über die Anzahl der rankenden Keywords pro URL oder deren durchschnittliche Position identifizieren.

Eine URL sticht hier in Bezug auf die rankenden Keywords besonders hervor (in Abbildung 3 blau markiert). Schaut man sich diese Landingpage auf der Detailseite einmal genauer an, zeigt sich, dass diese für mehr als 1.500 von Searchmetrics erfasste Suchbegriffe gleichzeitig im Google-Index vertreten ist.

Ein weiterer Vorteil der Performance-Messung auf Content-Ebene ist die Identifizierung direkter Wettbewerber im spezifischen Umfeld des Themas – sowie im direkten Vergleich der entsprechenden Kennzahlen. Beides unterscheidet sich teilweise erheblich von einem Vergleich auf Domain- oder gar auf Keyword-Basis, weil es in dieser Detailtiefe zu völlig anderen Überschneidungen, auch mit Nischenwettbewerbern, kommt.

Verschiedene Wettbewerber Domain/URL

Im direkten Wettbewerbervergleich scheint die Seite mit einer durchschnittlichen Position von 13 zunächst schlechter abzuschneiden als die Konkurrenz (Ø 9). Dies ist jedoch unter anderem auf die pure Masse an Suchbegriffen zurückzuführen. Fakt ist: Die Seite rankt für ca. 10 % der angegebenen Keywords auf Position eins.

 

Auf Domainebene sind die drei größten Wettbewerber von symptomat.de: netdoktor.de, apotheken-umschau.de und onmeda.de.

Auf URL-Ebene sieht das teilweise ganz anders aus. So hat symptomat.de sicherlich nicht t-online.de als direkten Konkurrenten auf dem Schirm, während onmeda.de, einer der größten Wettbewerber auf Domainebene, für diese konkrete URL dagegen gar kein direkter Konkurrent ist.

Use Cases

Eine derartige Auswertung ermöglicht zum Beispiel, anhand der konkreten Wettbewerber – und deren Keywords und Themen auf der Seite – neue Themenbereiche zu erschließen, Strategien zu identifizieren und diese Informationen für die eigene Optimierung zu nutzen.

Die Gretchenfrage lautet oft: Wo den Schnitt machen? Welcher Content gehört auf eine Seite und wann sollte mit welchem Content eher eine neue Seite erstellt werden? Hier sind wir im wahrsten Sinne des Wortes beim „Thema“.

2. Content: Vom Keyword zum Thema

Schaut man sich die Rankings der Symptomat.de-URL an, fällt auf, dass die Seite für Keywords, die sie so nicht einmal im Text aufweist, auf Position eins rankt. Unabhängig von vielen Shorthead-Keywords (dem Gegenteil von „Longtail“) wie „Schmerzen Atmen“ sind das beispielsweise „Stechen beim Einatmen auf der linken Seite“ oder „Ziehen in der Brust und im Rücken beim Luftholen“ – zwei völlig unterschiedliche Sucheingaben, deren inhaltliche Überschneidung lediglich nach tiefensemantischer Interpretation der dahinterliegenden Suchintention decodierbar ist. Mit Harald, der für „Kredit“ rankt, hat das nicht mehr viel zu tun.

Publish and Forget? Forget it!

Nun stellt sich die Frage: Was bedeutet das konkret für meinen spezifischen Seiten-Content? Dazu muss zunächst der Ansatz geklärt werden, der sich im Prinzip auf folgende zwei Maßnahmen reduzieren lässt:

  1. Die Erstellung von neuem Content
  2. Die Überarbeitung von bestehendem Content

Der erste Punkt ist ein Kapitel für sich. Beide Ausgangslagen unterscheiden sich jedoch prinzipiell in der Tatsache, dass man etwas, das schon vorhanden ist, auf Basis der eigenen Performance überarbeiten kann. Die Kunst hierbei ist es, erstens aus den existierenden Daten die richtigen Schlüsse zu ziehen und zweitens im richtigen Moment die richtigen Dokumente zu überarbeiten.

Hierbei müssen folgende Fragen geklärt werden:

  1. Welche Seiten performen aktuell und bringen mir den meisten Traffic?
  2. Bei welchen Seiten ist eine Überarbeitung/Erweiterung der Inhalte am sinnvollsten? Wo fange ich an? Die Überarbeitung welcher Seiten verspricht mir den größten Erfolg?

Beide Fragen beantwortet die Content-Performance von Searchmetrics über die KPIs: SEO Value und Traffic Index. (siehe Abb. 3)

Anlässe für Content-Überarbeitung sind dabei:

  • Saisonal
    Nutzern, die aktuelle Informationen zu wiederkehrenden Ereignissen wie „Silvester-Events Berlin“ bei Google suchen, ist mit dem Abendprogramm für die Party am Brandenburger Tor im Jahre 2011 wahrscheinlich wenig geholfen.
  • Produkt-Updates
    Veröffentlicht Softwareanbieter X beispielsweise Version 6 seines Programms, müssen Website und Produkt-Landingpages überarbeitet werden. Und wenn Apple im kommenden September das iPhone 7 vorstellt, werden die Rezensionen des iPhone 6s in den entsprechenden Online-Medien mehr oder weniger redundant.
  • Evergreen
    Etwas anders verhält es sich bezüglich Evergreen-Content. Gerade bei Dokumenten, die sehr langfristig erfolgreich und performant sein sollen und dabei nicht an Events gebunden sind, ist es wichtig, dass die Inhalte nicht nur relevant und holistisch sind, sondern auch mehrere Bedürfnisse überschneidend abdecken, um ähnliche Suchintentionen zu bedienen.

Nicht zuletzt seit dem „Freshness-Update“ (http://einfach.st/gfresh) von Google Ende 2011 ist bekannt, dass Google „frischere“ Ergebnisse im Index bevorzugt. Und auch hier geht symptomat.de als gutes Beispiel voran: Über archive.org lässt sich die Entwicklung der Seite über mehrere Jahre hinweg nachvollziehen – und siehe da, sie wurde mehrmals überarbeitet, erweitert und durch Elemente wie Videos oder Expertenmeinungen ergänzt.

Strategie: Content regelmäßig überarbeiten

Darüber hinaus können das Aufkommen neuer Aspekte zu einem Thema oder die Maßnahmen von Wettbewerbern ein Anlass sein, die eigene Webseite zu überarbeiten und den Content zu erweitern. Denn das Ziel heißt: Awareness schaffen – und behalten!

Ein gutes Beispiel hierfür sind die Content-Maßnahmen von Content-Experte Eric Kubitz und die daraus resultierenden positiven Auswirkungen auf die Keyword-Positions-Historie nach einem Absturz für den Suchbegriff „canonical tag“ (http://einfach.st/opo6):

Holistische Inhalte sind der Schlüssel

Die Grundvoraussetzung für eine solch performante Seite ist Themenrelevanz, die in der Regel über holistische Inhalte abgebildet wird. Holistisch bedeutet hierbei, möglichst viele für einen bestimmten weit gefassten Suchkontext relevanten Aspekte zu einem Thema auf der Seite abzubilden. Diese Relevanz lässt sich über Analysen zu Wort-Kookkurrenzen (wenn A vorkommt, kommt auch B vor) und -Vektoren (zur Bestimmung der semantischen Nähe von Termen) abbilden und messen. Auch bei der Extraktion verwandter Begriffe sowie zur Berechnung von deren Relevanz für ein Thema spielt Big Data eine sehr entscheidende Rolle.

Wie lassen sich relevante Inhalte erstellen?

Solche Auswertungen auf großer Datenbasis ermöglichen im ersten Schritt die Information über Terme und Häufigkeiten. Jedoch ist es in der Praxis zur Erstellung guter Texte unabdingbar, nicht nur eine unstrukturierte Liste an Keywords beispielsweise für Autorenbriefings zu generieren, sondern Autoren, die ja nicht immer zwingend zu 100 % mit den geforderten Themen vertraut sind, mit Informationen darüber zu versorgen, wie bestimmte Aspekte eines Themas zusammenhängen. Diese können nur durch komplexere semantische Berechnungen etwa unter Einbeziehung externer Textkorpora erfolgen, dann jedoch die Basis für solche Themenwolken-Darstellungen sein wie in Abb. 7.

Ein bekanntes Keyword-Tool spuckt bei der Eingabe von „Brustschmerzen“ (= X) beispielsweise eine Liste von 372 „uniquen“ Keywords aus, von denen 90 Prozent mit dem Hauptkeyword beginnen (X beim Sitzen, X beim Atmen, X nach Periode etc.). Was bringt diese pure Auflistung für die Textstruktur? Nichts. Eine sinnvolle Unterteilung des Themas ergibt sich erst bei der Strukturierung der Themen und der Unteraspekte. So wird zum Beispiel deutlich, dass sich Brustschmerzen in eine die inneren Organe betreffende Erkrankung und in eine die (weibliche) Brust selbst betreffende Symptomatik unterteilen lassen. Trotz synonymer Ausgangslage lässt sich dieses Thema folglich in zwei Bereiche – und damit auch sinnvoll in zwei verschiedene Landingpages unterscheiden.

Content Optimization

Wie angesprochen ermöglichen auch Wettbewerber-Analysen auf URL-Level Inspirationen zur Erweiterung des eigenen Contents. Noch konkretere Handlungsempfehlungen – neben der Struktur von Sub-Aspekten in Themenwolken – sind beispielsweise anhand von Relevanz-, Gewichtungs- und Häufigkeitsberechnungen von Termen, insbesondere unter Verwendung von N-Gramm-Analysen, möglich:

Analysen, welche Wörter in bestimmten Kontexten häufig vor oder nach anderen Wörtern stehen, ermöglichen die Identifizierung von Mehrworttermen wie „Brandenburger Tor“ oder „East Side Gallery“ im vorliegenden Beispiel (Abb. 8). Dies ist im englischsprachigen Markt von noch größerer Bedeutung, da hier viele Sinneinheiten nicht wie im Deutschen zusammengeschrieben werden.

Technisches SEO bleibt Grundvoraussetzung

Während SEO hinsichtlich Content nun eine völlig andere Rolle einnimmt, bleiben bestimmte technische Maßnahmen weiterhin ein wichtiger Grundstein von Online-Performance – insbesondere hinsichtlich solcher Themen wie Mobile vs Desktop. Suchkontexte und auch die -ergebnisse unterscheiden sich in beiden Sektoren stark – doch oft mangelt es Unternehmen an spezifisch für mobile Endgeräte ausgerichtetem Content, einer Strategie sowie deren technischer Umsetzung in Form von Möglichkeiten wie Responsive Design beispielsweise.

Und wenn keine mobiloptimierte Seite vorhanden ist, wird diese auf dem Smartphone schlechter performen – und zwar auch unabhängig von der Tatsache, ob Google die eigene Seite überhaupt in den SERPs anzeigt (was nach dem Mobile-Update deutlich seltener der Fall ist), sondern vielmehr, weil die User-Experience einfach schlecht ist.

Fazit: SEO und Big Data für Content nutzen

Am Ende sind und bleiben es (noch?) Menschen, die Inhalte erstellen. Je besser dabei die Fähigkeiten von Autoren sind, umso höher die Wahrscheinlichkeit, dass relevante konsumierbare Inhalte entstehen. Doch Inhalte können nur aus einer Inspiration heraus gedeihen. Gerade bei Online-Inhalten, die einerseits eng an Traffic und Conversions geknüpft sind und anderseits skalierbar sein müssen, spielt die Performance von Anfang an eine wichtige Rolle. Hierfür sind Analysen auf Basis von Big Data für die Entstehung relevanter Inhalte unabdingbar – ein perfekter Schnittpunkt zwischen SEO und Content.