Content-Audit –

oder wie ein „schreiender Frosch“ Webseiten verbessern kann

Tobias Aubele
Tobias Aubele

Dr. Tobias Aubele ist Professor für E-Commerce an der Hochschule für angewandte Wissenschaften Würzburg-Schweinfurt und Berater für Webcontrolling (u. a. „Deutschlands bester Conversion Optimierer 2018“ sowie „CRO Practitioner of the year 2020“). Er lehrt das Themenumfeld Conversion-Optimierung, Usability und Webanalytics im Studiengang E-Commerce. Zuvor war er viele Jahre in einem internationalen Multi-Channel-Unternehmen in diversen Führungspositionen tätig, zuletzt als Bereichsleiter E-Commerce.

Mehr von diesem AutorArtikel als PDF laden
Dominik Quambusch
Dominik Quambusch

Dominik Quambusch ist E-Commerce-Student an der Hochschule für angewandte Wissenschaften Würzburg-Schweinfurt, zudem ein passionierter Online-Marketer und Berater für alle Fragen, die das Thema SEO und SEA betreffen.

Mehr von diesem AutorArtikel als PDF laden

Schlagworte wie „Content-Marketing” und „Content-Seeding“ sind aktuell in aller Munde. Es wird suggeriert, dass E-Commerce-Verantwortliche neuen, relevanten Content produzieren sollen. Doch wäre es nicht von großer Bedeutung, permanent das Ausmaß und die Qualität des Contents, der sich aktuell auf der eigenen Site befindet, zu kennen? Google führt kontinuierlich eine maschinelle Evaluierung desselben durch und kennt das Inventar einer Website bis ins kleinste Detail – daher sollten Sie das für Ihre Site vielleicht auch tun. Mithilfe des Tools „Screaming Frog“ kann jeder Content-Verantwortliche die eigene Site unter die Lupe nehmen und ihr inhaltlich auf den Zahn fühlen. Dabei werden meist wahre Content-Schätzchen „wiederentdeckt“ bzw. Chancen auf Verbesserungen der Rankings bzw. Nutzerinteraktionen offenbart. Antworten auf die Fragen, welcher Content eine Auffrischung benötigt, welche Artikel gut bei den Besuchern ankommen und wo man eventuell Crawlingbudget einsparen könnte, bekommen Sie in diesem kleinen Leitfaden.

Content is King – mehr denn je!

Die Floskel „Content is King“, welche bereits Bill Gates im Januar 1996 mit einem enormen Weitblick kreierte („Content is where I expect much of the real money will be made on the Internet, just as it was in broadcasting.”), ist relevanter denn je. Mittels Machine Learning (siehe SEO 4.0 in der Website Boosting #32) versteht eine Suchmaschine nicht nur den Inhalt einer Webseite (Semantik), sondern kann diesen durch Fakten jederzeit verifizieren. In Kombination mit User-Signalen (Return-to-SERP-Rate, Bounce-Rate etc.) kristallisiert sich die vermeintlich relevanteste Webseite für eine Suchanfrage heraus („die guten Seiten ins (Index-)Töpfchen die schlechten ins (bedeutungslose) Kröpfchen“). Das Bedeutsame an Machine Learning ist, dass sich die Intelligenz der Maschine permanent weiterentwickelt und klassische Updates, d. h. große Veränderungen in gewissen Zeitintervallen, des Algorithmus obsolet werden (Stichwort Artificial Intelligence bzw. Deep Learning). Die Maschinen werden damit täglich besser, was schlussendlich auch für den Content einer Website gelten sollte. Umso mehr ist es wichtig, nicht nur relevanten Content zu besitzen, sondern diesen permanent zu hinterfragen, weiteren Content zu schaffen bzw. bestehenden zu modifizieren, d. h. zu aktualisieren und zu erweitern (holistische Sicht auf ein Thema). Die dem Content-Marketing zugrunde liegende Content-Strategie stellt die Basis des Handelns von Content-Verantwortlichen dar. Ein Content-Audit, d. h. eine Inventur und Bewertung des aktuellen Inhalts, ist somit ein bedeutsamer Teil der Strategieentwicklung bzw. Strategieüberprüfung und sollte in regelmäßigen Abständen durchgeführt werden.

Content-Audit – die quantitative und qualitative Content-Inventur

Google führt durch kontinuierliches Crawling eine permanente Inventur der Website durch. Eine Suchmaschine hat damit viele quantitative Antworten auf Fragen wie bspw.: Wie viele Webseiten sind auf der Website enthalten, wie viele Wörter hat diese Webseite, wie viele Titel und Description fehlen, welche Seiten liefern einen Fehler 404 etc.? Darüber hinaus kann eine Maschine auch eine qualitative Einschätzung der Webseite und einen Rückschluss auf die Relevanz vornehmen. Es ist somit sinnvoll, ein Audit selbst durchzuführen und proaktiv Optimierungen anzutreiben, ehe es durch Google in Form von Rankingverlusten auferlegt wird.

Bereits 2011 veröffentlichte Ahava Leibtag eine Checkliste, welche Kriterien wertvollen Content auszeichnen (http://einfach.st/cm22) und in Unternehmen Anwendung finden. Jeder Content sollte folgende Eigenschaften besitzen und die Kernfragen sollten eindeutig mit „JA!“ beantwortet werden können:

  1. Auffindbar: Kann der Nutzer die Inhalte finden? Sind die SEO-Hausaufgaben erledigt (Title, interne Verlinkungen, Alternativtexte für Bilder, Schema.org-Formate etc.)?
  2. Lesbar: Kann der Nutzer die Inhalte lesen? Sind Usability-Aspekte berücksichtigt (Förderung des Scanning-Prinzips, da Besucher den Text nicht lesen, sondern überfliegen: Textprinzip beachten, Gruppierungen & Aufzählungen von Inhalten, Listen, Formatierungen etc.)?
  3. Verständlich: Kann der Nutzer die Inhalte verstehen? Adäquates Verständnisniveau für die verschiedenen Nutzertypen (Persona), passende inhaltliche Formate wie Text & Video, passender Kontext.
  4. Handlungsorientiert: Wird der Nutzer aktiv? Sind Call-to-Action-Elemente, Kommentiermöglichkeiten, Sharingmöglichkeiten etc. vorhanden?
  5. Empfehlenswert: Wird der Nutzer die Inhalte teilen? Sind emotionale Aspekte adressiert, bietet der Content Anlässe zum Weiterempfehlen? Sind Social-Buttons datenschutzkonform vorhanden?

Auf den Punkt gebracht bedeutet dies: Erfüllt der Content nicht diese Anforderungen, sollte er nicht veröffentlicht werden bzw. bedarf es einer Optimierung. Um es gleich vorwegzunehmen: Ein Content-Audit ist eine aufwendige Analyse, liefert jedoch einen großen Mehrwert. Letztendlich sollte jeder Webseitenbetreiber prüfen, ob der Inhalt bestmöglich mit Videos, Tabellen, Bildern, Grafiken etc. ausgestattet ist, um dem Nutzer und seiner Intention einen Mehrwert zu bieten.

Eine hervorragende Möglichkeit, einen Überblick über den eigenen Content zu bekommen und Ideen für Optimierungsansätze zu entwickeln, liefert ein eigener Crawler, der ähnlich wie der Googlebot agiert und damit eine komplette Domain analysiert. Neben dem Klassiker XENU (http://einfach.st/xenu) ist der Screaming Frog eine ideale Lösung.

Screaming Frog – SEO-Spider

Mit Fröschen und Spinnen hat das Tool zwar nicht viel gemeinsam, Screaming Frog zählt jedoch zu den am weitesten verbreiteten Tools für Suchmaschinenoptimierer überhaupt, wenn es darum geht, einer Webseite technisch sowie inhaltlich auf den Zahn zu fühlen. Das Tool ist schon seit einigen Jahren auf dem Markt und aus der Branche kaum mehr wegzudenken. Es ist eines der effizientesten Werkzeuge, womit Internetseiten lokal vom eigenen Rechner aus gecrawlt werden können. In der Basisversion ist Screaming Frog kostenlos, hiermit lassen sich bis zu 500 URLs in einem Durchgang analysieren. Wer größere Internetauftritte verwaltet, sollte besser zur kostenpflichtigen Pro-Version greifen, mit der sich auch Google Search Console (ehemals Webmaster-Tools) & Google-Analytics-Konten verknüpfen lassen.

Ein kleiner Überblick, was der Frosch alles kann

  • Erkennen von HTTP-Statuscodes für interne und externe Links – z. B. 404, 301, 503 ...
  • Title & Meta-Description auf Zeichenanzahl und Pixelbreite prüfen
  • Fehlende und Duplikate von H1- und H2-Überschriften identifizieren
  • Meta-Robots der Seiten identifizieren – z. B. Index, Noindex, Follow, Nofollow
  • Analyse der Canonical-Tags
  • Paginierung identifizieren z. B. rel=”next”
  • Website-Pfad-Tiefe ermitteln
  • Follow- und Nofollow-Attribute von Links erkennen

Info: Rechtliches

Mit Screaming Frog oder XENU lassen sich wunderbar Seiten von Mitbewerbern crawlen. Dies ist aber mit großer Vorsicht zu genießen! Manche Server mögen es nicht, wenn zu viele Requests in kurzer Zeit gemacht werden, so könnte ein zu intensives Crawlen den Server lahmlegen (Stichwort DoS-Attacke), was zu Umsatzeinbußen führen kann, für welche Sie haftbar gemacht werden könnten. Dieser Artikel bezieht sich also nur auf den verantwortungsvollen Umgang der Tools mit den eigenen Websites.

Wie hüpft der Frosch durchs Netz?

Im Gegensatz zu den meisten SEO-Tools, die innerhalb des Browsers bedient werden, kann Screaming Frog SEO-Spider als lokale Applikation für OS X, Windows sowie Linux installiert werden (Download unter einfach.st/frog). Der Fokus des Tools liegt auf Onpage-Analysen, d. h. Daten, die direkt auf der untersuchten Webseite basieren, und enthält keine externen Informationen wie zum Beispiel Backlinkdaten. Die Ergebnisse eines Crawls werden in verschiedenen Registern des Tools sortiert, um einen Überblick über die gewonnenen Informationen zu liefern. Im Prinzip beschafft sich Screaming Frog seine Daten auf dem gleichen Weg wie der Googlebot, d. h., der Frog folgt allen internen Links, die im Dokument der Start-URL zu finden sind, und arbeitet sich von diesem Punkt an immer tiefer in die Webseitenstruktur hinein, indem er internen Links folgt. Ausgehende Links zu anderen Domains werden zwar geprüft, hier liefert das Tool aber nur Informationen zu HTTP-Statuscodes. Dies kann hilfreich sein, um sich einen Überblick über die ausgehenden Links zu verschaffen, welche dann per 301 eventuell auf mittlerweile themenfremde oder nicht hilfreiche Inhalte umgeleitet werden. Ebenso nützlich, um externe 404-Fehler zu entdecken, auf die natürlich nicht mehr verlinkt werden sollte.

Content-Audit mit Screaming Frog – Anwendungsbeispiele

Zunächst muss das gewünschte Verzeichnis oder die Domain initial gecrawlt werden, um die erforderlichen Informationen der Webseite zu holen. Dazu einfach die gewünschte URL in das Feld eintragen, auf Start klicken und warten, bis der Ladebalken am rechten Rand 100 % erreicht hat. Für die verfügbaren 500 URLs der Free-Version benötigt der Crawler je nach Internetverbindung und Webserverleistung max. fünf Minuten. Dabei gelten folgende Rahmenbedingungen: 

1. Ein Crawl erfolgt separat für jede einzelne Subdomain, bei einem Crawl von www.apfel-tv.de wird ein Link zu forum.apfel-tv.de wie ein externer Link behandelt und nicht weiter verfolgt.

2. Der Bot von Screaming Frog beginnt in dem angegebenen Verzeichnis und arbeitet sich davon ausgehend immer tiefer in die Seitenstruktur hinein, niemals zurück (bspw. www.apfel-tv.de = die gesamte Seite, mit allen Verzeichnissen dieser Subdomain, wird gecrawlt; www.apfel-tv.de/apple-tv-3/ = alle Seiten des Verzeichnisses innerhalb von /apple-tv-3/ werden gecrawlt).

Sind die Daten abgeholt, kann es direkt an die Auswertungen gehen:

Audit „Auffindbar“ (SEO): Pixelbreite des Title-Tags und Länge der Meta-Description analysieren:

Es ist nun schon einige Zeit her, dass Google nach einem Redesign der SERPs von der festen Anzahl 70 verfügbarer Zeichen im Title zu einer bestimmten Pixelbreite wechselte. Eine Annahme von 487 px für den Mac und 482 px bei Windows-Rechnern sind ein allgemeiner Richtwert, die Meta-Description sollte nicht länger als 156 Zeichen sein. Überschreitet man diese Limitierungen, wird am Ende mit „...” abgeschnitten, d. h., es können wichtige Informationen oder Call-to-Actions auf der Suchergebnisseite von Google verloren gehen (siehe Abb. 3).

Ein Verbesserungsbedarf lässt sich mit den eingebauten Filtern innerhalb des Tools ganz einfach identifizieren (siehe Abb. 4). Wie auf den verfügbaren Filtern ersichtlich, lassen sich damit ebenso fehlende Titles sowie Duplikate finden. Ein Klick auf die entsprechende Adresse liefert weitere Informationen zum Dokument wie bspw. Anzahl Wörter, eingehende Links, ausgehende Links, Canonical-URL, H1 und H2.

Die Auswertung der Pixelbreite ist nur ein Anwendungsfall aus dem Bereich „Optimierung SEO“. Weitere Onpage-Faktoren wie Einsatz des Canonical-Tags bei ähnlichen Inhalten auf mehreren URLs, Prüfung 302- vs. 301-Weiterleitungen, interne Verlinkungen etc. können anhand der gecrawlten Daten geprüft werden. Sämtliche Ergebnisse können natürlich auch per Export (bspw. in Excel) gesichert bzw. dort weiteranalysiert werden. Unter Aktivierung der Filterfunktionen in Excel (es erscheinen Pfeile in den Spaltenköpfen, siehe Abb. 5) kann die komplette Website nach einzelnen Attributen gefiltert werden.

Duplikate oder fehlende Überschriften lassen sich ebenfalls über einen internen Filter im Tool bzw. mittels des Excel-Exports finden. Hierbei lassen sich H1 und H2 getrennt voneinander betrachten. Es ist für Mensch (Stichwort „überfliegen von Text“) und Maschine (Rankingpotenzial) wichtig, einzigartige und erwartungskonforme Überschriften zu definieren.

Wo verstecken sich nicht optimierte Bilder?

Pagespeed, also die Seitenladezeit, ist neben der direkten Wirkung als Rankingfaktor ein wichtiger Beeinflusser der Nutzungszufriedenheit. Neben Reduzierung der Antwortzeit des Servers und der Anzahl von HTTP-Requests kann ein einfacher, aber manchmal großer Hebel das Optimieren von Bildern sein. Es passiert ziemlich oft, dass große Bilddateien auf den Server geladen werden, was gar nicht nötig ist. Diese lassen sich mit Screaming Frog und den eingebauten Filterfunktionen ebenfalls schnell aufspüren. Im Reiter „Images“ kann nach Bildern gefiltert werden, die größer als 100 KB sind und/oder gleichzeitig absteigend nach der Bildgröße sortiert werden. Dabei bedeutet es aber nicht, dass alle Bilder, die kleiner als 100 KB gut sind, oder umgekehrt größere schlecht sind. Optimierungsbedarf an Bildern kann man selbst pro URL mit Googles Pagespeed-Tool überprüfen: einfach.st/gpsi1.

Zur Bildoptimierung lassen sich neben den bekannten Grafikprogrammen auch Online-Tools wie z. B. das von Kraken (https://kraken.io) oder auch das kostenlose WordPress-Plug-in Smushit (http://einfach.st/smush) einsetzen.

Ebenfalls im Reiter „Images“ lassen sich mit dem Filter auch Bilder mit fehlenden Alt-Texten finden. Die Alt-Tags können vor allem bei der Optimierung für die Google-Bildersuche helfen, sind aber ursprünglich als alternative Beschreibung des Bildes zu sehen, falls das Bild aus irgendeinem Grund nicht angezeigt werden kann.

Audit „Auffindbar“ (SEO): Dynamisches Onpage-Dashboard erstellen:

Der Export in Excel kann als Basis für ein Standard-Dashboard dienen. Im Normalfall hat der Export ein identisches Format, d. h. eine identische Anordnung der Spalten. Mittels Formeln besteht die Möglichkeit, die Daten nach bestimmten Fragestellungen zu analysieren. Im Dashboard in Abb. 6 wurde der Inhalt des Exports in das Registerblatt „Export“ kopiert. Mittels Funktionen (bspw. ZÄHLENWENNS) kann nun die Anzahl des Vorkommens eines bestimmten Wertes (bspw. Servercode 200) bei einem bestimmten Content-Typ (text/html = normale Webseite) ermittelt werden. In der Beispielwebsite sind 248 .jpg-Bilder bzw. 45.png-Bilder enthalten sowie 289 Webseiten mit Content (Text). Diese werden 240-mal korrekt ausgeliefert (Status 200) und 49-mal per 301 weitergeleitet und ebenfalls korrekt ausgeliefert (es ist kein 404, d. h. unerreichbare Seite vorhanden). Basierend auf dem Ursprung der Domain (www.apfel-tv.de) sind 75 Dokumente in der nächsten Ebene erreichbar (d. h., der Nutzer müsste einmal klicken, um auf die Seite zu gelangen), 143 Dokumente auf der zweiten Ebene (d. h., der Nutzer müsste zweimal auf einen Link klicken, bis diese Seite geladen wird) etc. Darüber hinaus ist feststellbar, dass sehr wenig Seiten mit umfänglichem Content bestehen (bei 86,2 % besteht der gesamte Text auf der Seite aus weniger als 1.000 Wörtern).

Tipp: Austausch der Inhalte des Registerblattes „Exports“ ermöglicht, diverse Domains nach eigenen Vorgaben zu analysieren, da sich die Inhalte des Blattes „Analysen“ dynamisch per Formeln/Funktionen befüllen. Die Nutzung von Pivot-Tabellen ermöglicht weitere Analysen mittels Gruppierungen „on the fly“.

Audit „Verständlichkeit“: User-Signale nachvollziehen und interpretieren

Eine wichtige Erkenntnis liefert die Analyse des Zusammenhangs von Wörtern pro Seite, also der Textlänge im Verhältnis zur Absprungrate. Hierbei können Schwachstellen identifiziert werden, bei denen entweder viel zu wenig Seiteninhalt dazu führen könnte, dass eine Seite gar nicht erst in den Suchergebnissen gefunden wird, oder zu wenig Content dem Besucher nicht genügend Informationen liefert, sodass dieser wieder zurück auf die Suchergebnisseite springt und sich weitere Informationen einholt. In der kostenlosen Version ist keine Verknüpfung mit Analytics enthalten, wodurch bspw. die Bounce-Rate oder die Time-on-Site als Indikator für Verständlichkeit und Relevanz manuell hinzugefügt werden müssen. Hierbei ist ein klein wenig mehr Aufwand erforderlich. Man vereinigt den Export aus Screaming Frog, der die Anzahl der Wörter einer URL enthält, mit einem Export aus Google Analytics (Verhalten -> Website-Content -> Alle Seiten). Alternativ kann auch das SEO-Add-in für Excel (http://seotoolsforexcel.com) herangezogen werden.

Der Export aus Analytics liefert je Seite die gewünschten Kennzahlen. Es sollte im Interesse eines jeden Seitenbetreibers sein, eine möglichst geringe Absprungrate sowie eine dem Content entsprechend hohe Verweildauer zu haben.

Damit die beiden Quellen kombiniert werden können, bedarf es der Excel-Funktion SVERWEIS (bzw. alternativ der Kombination von INDEX und VERGLEICH). Mittel der Funktion SVERWEIS werden die Datei „Analytics_Export“, welche dem Export aus Analytics entspricht (Abb. 8), und der entsprechende Spalteninhalt (im Beispiel die Spalte 6 = Spalte F) ausgelesen. Da Analytics im Standard nicht die Domain mitliefert, muss entweder die Analytics-Datei um die Domain erweitert oder der Frog-Export um diesen Teil gekürzt werden. Dies kann mittels der Funktion TEIL bzw. RECHTS durchgeführt werden.

Nach dem Verknüpfen lässt sich nun nach Belieben filtern. Texte mit einer relevanten Anzahl an Wörtern in Kombination mit einer hohen Absprungrate bzw. niedrigen Besuchszeit sind Kandidaten für eine qualitative Überprüfung nach dem obigen Schema.

Tipp: Sofern die Besucher meist nur eine Seite anschauen (Blog mit Newsletterkontakt), ist die im Standard definierte Absprungquote (1 Seite pro Besuch) nicht optimal. Hier empfiehlt es sich, mit Events nach bestimmten Zeitpunkten (bspw. 120 Sekunden) zu prüfen, ob der Webseitenbesucher „noch da“ ist. Das Auslösen eines Events ist einem Klick gleichzustellen, was die Absprungrate damit ausschließt.

Audit „Empfehlenswert“: Welche Inhalte werden geteilt?

Sofern 69 €/Jahr für eine Erweiterung von Excel im Budget sind, empfiehlt es sich, mit den SeoTools für Excel zu arbeiten. Hier kann bspw. jede URL mit Social-Media-Kennzahlen angereichert werden (siehe Abb. 10). Jede Seite hat damit neben der Absprungrate und Verweildauer einen weiteren Indikator: Werden die Inhalte mit Freunden geteilt? Da davon auszugehen ist, dass nur relevante, empfehlenswerte Inhalte geteilt werden, gibt diese Kennzahl einen guten Hinweis, auf welche Art von Content die Zielgruppe reagiert.

Tipp: Die SeoTools für Excel liefern auch weitere Hilfen, bspw. die direkte Integration von Googel Analytics in Excel sowie die Ansprache diverser Schnittstellen (API) wie AdWords und SEMrush.

Wer rastet, der rostet, so auch der Content

Durch die Verknüpfung der Nutzersignale von Google Analytics und Screaming Frog lassen sich zusätzlich „eingestaubte” Seiten finden, welche wieder einer Verjüngungskur unterzogen werden könnten. Aktuellen Content finden nicht nur Webseitenbesucher gut, auch Google liebt Seiten, die up to date sind. Dazu können die relativ gut besuchten Seiten in Verbindung zum Datum der letzten Veränderung gesetzt werden (Feld „Last-Modified“ im Frog-Export. Auch wenn es wehtut, jeder Content wird ggf. alt und muss sogar eliminiert werden. Content wurde natürlich einst mühsam erarbeitet oder man ließ ihn für teures Geld erstellen. Manchmal jedoch sind Inhalte einfach nicht mehr zeitgemäß oder sie werden durch thematische Umstrukturierungen der Website irrelevant. Daher kann es sinnvoll sein, sich von einigen Seiten zu lösen. Dies dient der internen Verlinkung, verschafft einem selbst mehr Überblick und spart zudem noch Crawlingbudget.

Neben der kostenlosen Basis-Version gibt es wie bereits erwähnt für 99 Britische Pfund (ca. 135,- €) die Pro-Version. Damit kann der Crawler individuell konfiguriert werden, das Limit von 500 zu analysierenden Seiten entfällt, Informationen im Code (Codefragmente) sind durchsuchbar und die Google-Analytics-Daten/Search Console sind direkt zur URL abrufbar (siehe Abb. 11). Ein manueller Workaround entfällt für die beiden Google-Produkte, ist für die Integration von Backlinkdaten aus Sistrix (bspw. über die SeoTools-Funktion XPathOnURL) dennoch notwendig. Die obige SVERWEIS-Funktion kann auch hier wieder wertvolle Dienste leisten.

Fazit

Ein Content-Audit schafft eine wichtige Ausgangsbasis für Optimierung sowie Überprüfung der eigenen Content-Strategie und des eigenen Inventars. Neben der Verifizierung der notwendigen SEO-Hausaufgaben kann dadurch mehr Einblick in das Nutzerverhalten gewonnen werden. Ein Audit bietet schlussendlich Antwort auf Fragen wie: Welche Inhalte werden geteilt? Welche sind wahrscheinlich aus Nutzersicht eher uninteressant? Wie könnte das Interesse gesteigert werden, d. h., was fehlt an dieser Webseite? Das Content-Audit ist nur ein Teil einer Content-Strategie bzw. des Content-Marketings, sollte jedoch nicht in Vergessenheit geraten und in regelmäßigen Abständen durchgeführt werden.

In diesem Sinne: Lassen Sie den Frosch schreien!