Serienspecial: SEO fängt mit OnPage an

Teil 6: Fehlersuche und -behebung

Irina Hey
Irina Hey

Irina Hey ist Head of Marketing & Communications bei OnPage.org – Innovative Tools für bessere Webseiten. Sie ist eine leidenschaftliche Suchmaschinenoptimiererin und Online-Marketing-Expertin. Die Passion für die Themen erwarb Irina bereits während ihres Studiums.

Mehr von diesem AutorArtikel als PDF laden
Mario Fischer
Mario Fischer

Mario Fischer ist Herausgeber und Chefredakteur der Website Boosting und seit der ersten Stunde des Webs von Optimierungsmöglichkeiten fasziniert. Er berät namhafte Unternehmen aller Größen und Branchen und lehrt im neu gegründeten Studiengang E-Commerce an der Hochschule für angewandte Wissenschaften in Würzburg.

Mehr von diesem AutorArtikel als PDF laden

Die letzten fünf Beiträge unserer OnPage-Optimierungsserie handelten von der Identifizierung wichtiger Webseitenbereiche und Faktoren, die für Suchmaschinen eine Rolle für das Ranking einer Webseite spielen, und davon, wie diese optimiert werden können. Der abschließende Teil der OnPage-Reihe beschäftigt sich nun mit dem Finden gravierender Fehler auf Webseiten und deren Beseitigung. In diesem Zusammenhang werden die Vorgehensweise bei der Fehlersuche aufgezeigt und praxisnahe Beispiele zur Behebung häufiger Fehler erläutert.

Jedem Webmaster dürfte dies bekannt vorkommen: Beim Surfen durch den eigenen Webauftritt findet man einen toten Link, der nicht mehr funktioniert, oder eine bestimmte Seite ist plötzlich nicht mehr erreichbar. Diese Fehler treten aber auch relativ häufig bei Websites und Shops auf, ohne dass man dies gleich bemerkt. Die Folge ist, dass Webseitenbesucher möglicherweise auf eine solche Seite stoßen und diese sofort wieder verlassen. Da die User Experience, also die Nutzererfahrung, oder besser deren „Feeling“ mittlerweile auch eine sehr wichtige Rolle für Suchmaschinen spielt, darf man diesen Aspekt nicht außer Acht lassen. Schließlich soll der Besucher auf der eigenen Seite auch finden, was er sucht, und am Ende Umsatz und Gewinn bringen. Durch Codefehler oder Fehler in der Dokumentenstruktur können Suchmaschinen Probleme beim Crawling einer Webseite haben, deshalb sollte diese Struktur immer möglichst fehlerfrei sein.

Monitoring als Pflichtprogramm

Um einen einwandfreien technischen und inhaltlichen Zustand einer Webseite für Besucher zu gewährleisten, ist das Überwachen des eigenen Webauftritts unabdingbar. Das richtige Monitoring wichtiger technischer und inhaltlicher Faktoren ist das A und O einer guten Optimierungsarbeit und eines nachhaltigen Qualitätsmanagements. Doch wie geht man da idealerweise vor? Dieser Beitrag hilft, die wichtigsten Webseiten-Baustellen zu beobachten und schwerwiegende Mängel rechtzeitig zu identifizieren und zu eliminieren.

Fehler identifizieren

Grundsätzlich können mögliche Fehlerquellen in zwei Kategorien eingeteilt werden:in technische und inhaltliche Fehler. Während es bei technischen Fehlern hauptsächlich um Quellcode- oder Serverfehler geht, werden inhaltliche Fehler meist im Text oder bei den benutzten Medien (Bilder, Videos) gefunden. Aber es kann sich auch um „weiche“ Faktoren wie Usability-Fallen oder schlechte Benutzerführung handeln.

Hier einige Beispiele für beide Fehlerarten:

Technische Fehler

Inhaltliche Fehler

 
  • Fehler bei Server-Einstellungen oder ‑Konfiguration
  • Fehler in der robots.txt
  • Fehler im Quellcode (z. B. falsche oder unvollständige Meta-Tags, falsche Linkziele usw.)
  • Fehler in der Syntax der Auszeichnungssprache (fehlende Tags, CSS- und Java-Script-Fehler)
  • Fehler in der Webseiten-Architektur oder ‑Struktur (verwaiste Seiten, tote Links u. v. m.)
  • lange Ladezeiten, zu große Dateien
 
 
  • zu wenige/zu viele Inhalte
  • unübersichtliche Navigation, schlechte Benutzerführung
  • schlechte Usability
  • qualitativ dürftige Inhalte (schlechter Text, zu kleine Abbildungen)
  • doppelte Inhalte (sog. Duplicate Content)
 

 

Tipp

Überwachen Sie Ihre Webseite regelmäßig auf mögliche Fehler. Schon ein kleiner Vertipper bei der Programmierung könnte große negative Auswirkungen mit sich bringen. Angenommen, Sie setzen auf Ihrer Startseite den Robots-Tag falsch und setzen das Attribut versehentlich auf nofollow oder noindex. Die Folgen sind gravierend – Ihre Seite wird aus dem Index entfernt, da die Suchmaschine das Robots-Attribut berücksichtigt. Ihre Webseite verliert nach und nach Rankings und Besucher. Achten Sie darauf, dass so etwas bei Ihren Seiten auf keinen Fall passiert.

Manuelle Fehlerfindung vs. Tool-Einsatz

Natürlich gibt es die Möglichkeit, manuell Fehler auf der Webseite und im Quellcode zu suchen. Haben Sie kein entsprechendes Tool zur Verfügung, kann ein einfaches Mittel die Suchfunktion über alle Dateien des Webverzeichnisses sein. Suchen Sie nach entsprechenden Textmustern wie z. B. dem String “noindex“ und überprüfen Sie die Ergebnisse, ob dieser Eintrag dort wirklich gewollt ist. Allerdings erweist sich diese Möglichkeit als äußerst mühsam und zeitaufwendig. Selbstverständlich kann man sich durch die Webseite klicken. Aber vor allem bei technischen Baustellen stößt man schnell an zeitliche Grenzen.

Mittlerweile gibt es sehr gute (günstige und auch kostenlose) Monitoring-Werkzeuge, die Fehler innerhalb weniger Augenblicke durch eingehende Webseiten-Analyse identifizieren. So spart man sich nicht nur wertvolle Zeit, sondern bekommt schlichtweg auch deutlich bessere und umfassendere Ergebnisse. Nachfolgend werden ohne Anspruch auf Vollständigkeit einige solche Tools vorgestellt, die das Monitoring von Fehlern erleichtern und bei kritischen Fehlern warnen.

Google Webmaster-Tools

Eine der einfachsten und effizientesten Möglichkeiten, mithilfe einer automatisierten Lösung die eigene Seite im Auge zu behalten, kommt direkt von Google Inc. Der Suchmaschinenprimus bietet den Webmastern ein umfangreiches und kostenloses Tool zur Webseitenüberwachung an. Die Voraussetzung zur Nutzungist eine Authentifizierung der eigenen Seite, man muss also ein Code-Snippet in die eigene Webseite einbauen, um die Webseite von Google ausführlich checken zu lassen. Dadurch bestätigt man auch die Inhaberschaft der Webseite und gilt dort ab sofort als verifizierter Webmaster und Inhaber der bestätigten Webseite. Dies ist nötig, damit sich nicht Fremde Zugriff auf diese Daten erschleichen können. Durch das Hochladen einer speziellen von Google erzeugten HTML-Seite ist sichergestellt, dass später nur derjenige Zugriff erhält, der auch über den Adminzugang zur Website verfügt. Alternativ kann man auch ein individuell von Google vorgegebenes Meta-Tag in den Quelltext einsetzen. Diese Option sollte man wählen, wenn man zwar auf die Programmierung oder die Vorlagen zugreifen kann, nicht aber auch über einen sog. FTP-Zugang verfügt.

Google Webmaster-Tools ist ein sehr mächtiges Tool, hält viele nützlichen Auswertungsdaten vor, zeigt Fehlerquellen auf und gibt darüber hinaus auch noch viele Tipps, wie man die Fehler am besten beheben kann. Bei der Webmaster Academy (http://einfach.st/gwt4) sowie in sämtlichen Webmaster-Foren (http://einfach.st/gwmtf) kann man sich Fehlerbehebungs- und Optimierungstipps einholen. Zudem bietet Google Webmaster-Tools eine Alert-Funktion, womit der Webmaster bei kritischen Ereignissen (z. B. falsches Crawling) gewarnt wird.

Die Google Webmaster-Tools bieten nicht nur ein umfangreiches Set an zu überprüfenden Faktoren, sondern liefern zuverlässig die Daten direkt vom Suchmaschinenbot.  

Tipp

Melden Sie Ihre Webseite in jedem Fall bei Google Webmaster-Tools an. Zum einen identifizieren Sie sich als ernsthafter Webseiten-Betreiber und zum anderen erhalten Sie die Daten direkt und unmittelbar von der Suchmaschine selbst.

Nützliche Browser-Plug-ins

Für eine schnelle und grobe Einschätzung, wo potenzielle Fehlerquellen auf der Webseite sein könnten, sind auch Browser-Plug-ins (Add-ons) sehr gut geeignet. Schnell und einfach können wichtige Fehlerindikatoren geprüft und ausgewertet werden. Es gibt eine Reihe an Add-ons, die für eine schnelle SEO-Analyse geeignet sind.

Hier sind einige davon, die man leicht per Suche im jeweiligen Browser bei den Erweiterungen finden kann:

Um tiefgründigere Analysen einer Webseite abzurufen und darzustellen, bedarf es jedoch anderer Tools, die viele weitere Faktoren, wie beispielsweise historische Daten, einbeziehen.

Tipp

Die Browser-Add-ons sind nur kleine Helferlein und unterstützen am besten bei Kurzanalysen oder bei Analysen ganz weniger einzelner Web-Dokumente. Für ein umfassendes Fehlermonitoring eigenen sich Add-ons eher nicht bzw. es wird sehr aufwendig, alles manuell zu prüfen. Trotzdem helfen sie durchaus, ad hoc vermutete potenzielle und gravierende Fehler zu finden, und gehören daher in den Browser eines jeden Webmasters.

Fehlersuche und Behebung

Um die wichtigsten Fehler auf der eigenen Webseite aufzudecken, muss man natürlich die Webseite dauerhaft und möglichst lückenlos überwachen. Nur dann ist man sicher zu wissen, ob und welche Fehler überhaupt vorkommen.

Besonders schwerwiegenden Fehler haben zur Folge, dass die gesamte Erreichbarkeit der Webseite für Besucher gefährdet sein kann. Aber nicht nur das. Auch die Auffindbarkeit der Webseite bei Suchmaschinen kann stark beeinträchtigt oder schlimmstenfalls ganz verhindert werden. Bestimmte wichtige Unterseiten werden dann nicht mehr gefunden und können dem Besucher natürlich in den Suchergebnissen auch nicht mehr zum Anklicken präsentiert werden. 

Tipp

Es gibt viele Überprüfungs- und Überwachungs-Tools, die eine Fehlerfindung unterstützen und die wesentlichen Fehler identifizieren. Ob man sich für eine umfassendere All-in-one-Lösung entscheidet, die möglichst alles überwacht, oder lieber viele verschiedene Tools für verschiedene Bereiche nutzt, bleibt dem Webmaster und seinen speziellen Belangen und letztlich auch dem verfügbaren Budget überlassen. Die Unterschiede sind relativ klar: Bei kostenlosen Tools besteht die latente Gefahr, dass der Dienst wieder eingestellt wird und man sich nach einer Alternative umsehen und umgewöhnen muss. Bei bezahlten Tools gibt es jedoch in der Regel immer auch Support und eine entsprechende Kennzahlenüberwachung, die man auch für eine Langzeitanalyse verwenden kann.

Fehler: Webserver-Probleme

Es kann immer wieder vorkommen, dass der eigene Webserver aufgrund von hohem Requestaufkommen überlastet wird. Dadurch werden die Webseiteninhalte langsamer als sonst geladen oder sogar Timeouts ausgegeben. So etwas kann schnell passieren. Man stellt einige Bilder z. B. von einer Messe oder einer Veranstaltung ein und dies stößt vielleicht sogar auf das Interesse der Besucher. Nun müssen in einem oft engen Zeitrahmen plötzlich sehr viel mehr Objekte oder solche mit höherem Speichervolumen übertragen werden. Gerade bei datenbankbasierten CMS kann es hier wegen der entstehenden Flaschenhälse unerwartet zu Performanceproblemen kommen. Schwierig daran ist, dass der langsamere Seitenaufbau nicht ständig sichtbar ist, sondern nur bei einer Überlastung. Man selbst bekommt beim Aufruf alles schnell ausgeliefert, aber in den Abendstunden treten plötzlich Timeouts auf. Weist eine Webseite dann viele solcher Timeouts auf, ist tatsächlich Vorsicht angesagt. Insbesondere Google reagiert auf langsamen Seitenaufbau in der Regel nicht mit positivem Ranking.

Es gibt diverse Tools, die eine professionelle Serverüberwachung ermöglichen, z. B. unter www.whatsupgold.com/de von Ipswitch oder www.de.paessler.com von Paessler AG PRTG. Es gibt aber auch auf dem SEO-Markt diverse Tools, die Server-Überwachung ermöglichen, z. B. OnPage.org oder RankingCoach.

Behebung:
Wie man Websites schneller machen kann, ohne in teure Hardware zu investieren, wurde in Website Boosting schon mehrfach berichtet. Helfen solche Maßnahmen nichts mehr, muss wohl darüber nachgedacht werden, einen leistungsfähigeren Server zu beschaffen oder ein Server-Update/Upgrade zu machen. In besonders kritischen Fällen kann auch über einen Anbieterwechsel nachgedacht werden. Die meisten Hoster bieten jedoch einen vernünftigen Support, kennen sich technisch recht gut aus und können helfen.

Fehler: Falsche Einträge in der robots.txt

Eine fehlerhafte Syntax der robots.txt kann zum Nichtbefolgen der Anweisungen durch Suchmaschinenbots führen. Schon beim Erstellen der robots.txt sollte man daher unbedingt darauf achten, dass ein Texteditor für die Erstellung benutzt wird und die Datei keine ungültigen Zeichen enthält. Der gängigste Editor ist Notepad (für Windows oder iOS). Sämtliche HTML-Editoren sind dafür eher ungeeignet. Die Benutzung von HTML-Editoren kann gelegentlich zu Fehlern führen. Ist das der Fall, dann enthält eine robots.txt-Datei möglicherweise ungültige Zeichen, die von Suchmaschinen nicht berücksichtigt werden können.

Weitere Fehler passieren beim Hochladen der Datei via FTP auf den eigenen Webserver. Hier muss man sicherstellen, dass die Datei im ASCII-Modus übertragen wird. Wichtig ist auch, dass der Dateiname nur aus Kleinbuchstaben besteht und korrekt in das Root-Verzeichnis der Domain geladen wird.

Wo findet man den Fehler:
Die robots.txt-Datei liegt im Root-Verzeichnis einer Domain und ist von jedermann über den Browser durch den Anhang des Dateinamens an die Domain

www.meine-domain.de/robots.txt

abrufbar.

Praxis-Tipp

In den Webmaster Tools gibt es einen robots.txt-Tester und es gibt auch andere Werkzeuge im Web, die die eigene robots.txt auf Fehler überprüfen, wie etwa de.onpage.org/free-tools/robots-txt/ oder www.frobee.com/robots-txt-check.

Behebung:
In den Webmaster-Tools von Google gibt es ein Werkzeug, das die wesentlichen Syntaxfehler in der robots.txt farblich hervorhebt. Diese können dann in der eigenen Datei ausbessert werden. Die richtige Syntax für die robots.txt gibt es im Netz unter einfach.st/allbots – dort sind alle Anweisungen sowie die richtige Syntax zum Nachlesen hinterlegt.

Fehler: Der Robots-Tag ist auf "noindex" gesetzt

Die Syntax des Meta-Robots-Tags wird von Suchmaschinenbots erwartet wie folgt: <meta name="robots" content="..., ..."/> Diese Meta-Tags können die Funktionsweise des Crawlers steuern und vom Bot die Inhalte indexieren lassen oder auch nicht. Die Standardwerte lauten "index, follow". Der Text, der Probleme verursachen kann, ist noindex (verhindert, dass die Seite indexiert wird). Wird dieser bei Seiten hinterlegt, die indexiert werden sollen, dann kommt es zu einem Fehler und man wird die Seiten nicht im Google-Index finden.

Behebung:
Die Behebung dieses Fehlers im Robots-Tag ist relativ trivial. Das Tag kann entweder modifiziert und auf das Attribut "index" verändert werden oder man entfernt das Tag komplett. Nach dem Entfernen dieses Tags werden standardmäßig die Attribute "index, follow" durch den Suchmaschinenrobot befolgt.

Fehler: Canonicals defekt

Das Canonical-Tag ist eine Angabe im Quellcode einer Website. Es verweist auf eine Standardressource – eine kanonische URL – und wird bzw. sollte bei Websites mit gleichen oder fast gleichen Inhalten verwendet werden. Wird eine kanonische URL korrekt ausgezeichnet, so wird nur diese Quelle zur Indexierung der Suchmaschinen herangezogen. Das Canonical-Tag teilt der Suchmaschine also mit, ob das Dokument selbst die Originalquelle ist oder ob der Originalinhalt sich auf einer anderen Seite befindet. Hier können sich diverse Fehler einschleichen. Entweder zeigt das Canonical-Tag auf ein falsches Ziel, ist fehlerhaft codiert, nur relativ deklariert (also keine vollständige URL wie „www.meinedomain.de/seite.html“, sondern nur „/seite.html“) oder weist Widersprüche bei Seitenparametern auf.   

Behebung:
Das Add-on für Firefox „Search Status"bietet beispielsweise direkt in der URL eine Anzeige über den Einsatz des Canonical-Tags. Leuchtet diese blau, ist ein Canonical-Tag gesetzt und beim Klick darauf gelangt man direkt zu der kanonischen Seite. So kann man schnell manuell überprüfen, ob das Canonical-Tag zu der richtigen Quelle führt. Idealerweise zeigt jede URL mit dem Canonical-Tag auf sich selbst, außer wenn sie eine Originalquelle hat. Möchte oder muss man ausführlichere Canonical-Tag-Analysen machen, dann können Tools wie Strucr, Screaming Frog, OnPage.org oder andere hinzugezogen werden.

Fehler: Fehlender Analytics-Code

Fehlende Tracking-Codes auf Webseiten sind keine klassischen technischen Fehler an sich, aber wenn das Tracking-Snippet auf der Webseite nicht vorhanden ist oder Ungereimtheiten aufweist, können wichtige Kennzahlen wie Besuche oder Conversions nicht mehr korrekt überwacht werden. Es kann sehr schnell passieren, dass bei einem Redesign oder einem Relaunch von Seiten der Tracking-Code nicht oder nicht in allen Vorlagen mit übernommen wird oder im neuen System an der falschen Stelle hinterlegt wird. Recht häufig kommen solche Fehler bei der Verwendung mehrerer Softwaresysteme für eine Domain vor, z. B., wenn ein Shopsystem mit einer Blogsoftware kombiniert wird. Die Überwachung, ob alle Tracking-Codes korrekt implementiert sind, ist gar nicht so einfach. Am besten eignen sich automatisierte Tools dafür, die große Mengen von Seiten auf bestimmte Code-Snippets bzw. deren Fehlen durchsuchen können.

Behebung:
Wenn man weiß, an welcher Stelle der Fehler sitzt, kann man das bequem im Quellcode der Seite bearbeiten und den richtigen Tracking-Code wieder einfügen.

Fehler: Inhalt

Der häufigste Fehler auf Webseiten passiert bei der redaktionellen Bearbeitung. Entweder ist der Inhalt der Seite (Text, Bilder, Rich Media …) für den Besucher nicht relevant und beinhaltet Informationen, die für den Besucher vielleicht gar nicht interessant sind. Die Folge ist eine hohe Bounce-Rate, weil hier meist überproportional viele Besucher die Seite sofort wieder verlassen. Für Suchmaschinen ist dieser Wert sowie die Verweildauer auf Seiten wichtig, da sie daraus schließen, ob der Inhalt von den Suchenden als relevant eingestuft wird – oder eben nicht.

Aber auch technische Fehler können beim Anlegen des Inhalts passieren, manuell gesetzte Links sind fehleranfällig und können schon durch das Fehlen eines kleinen Code-Zeichens ungültig werden und auf leere Ziele verweisen. Dabei wird die User Experience des Nutzers negativ beeinträchtigt, weil er einfach daran gehindert wird, zum gewünschten Ergebnis zu kommen, und auf seinem Weg dorthin auf viele Hürden und Fehlermeldungen trifft. Ganz klassische kleinere inhaltliche Fehler sind auch veraltete E-Mail-Adressen, Links zum Impressum oder AGBs, die z. B. nach Änderungen nicht mehr aktuell sind und im Webauftritt nur schwer ausfindig gemacht werden können.

Behebung:
Redaktionelle Fehler sind einfach zu beseitigen. Im Quellcode der Seite kann der Text einfach ermittelt und bearbeitet werden. Tote oder ungültige Links können mittels entsprechender Tools wie z. B. Xenu (kostenlos unter einfach.st/xenu) ebenfalls ermittelt und als URL-Tabelle abgearbeitet werden.

Abschließend finden Sie noch einige Tipps, wie man solche Fehler meist schon im Vorfeld vermeidet.

Tipp 1: Qualitätsrichtlinien von Google beachten
Google entwickelte eigene Richtlinien für Webmaster (http://einfach.st/gws9), die

  • Design- und Inhaltsrichtlinien
  • Technische Richtlinien
  • Qualitätsrichtlinien

eines Webauftritts berücksichtigen. Wenn man sich als Webmaster an diese Richtlinien hält, kann man im Vorfeld viele Fehlgriffe und Webseitenmängel reduzieren. Die umfangreichen Erklärungen, Code-Beispiele und Tipps geben den Webmastern eine sehr gute Anleitung, um Fehler zu beseitigen.

Tipp 2: W3C-Standards beachten
Es gibt auch andere Standards. Das W3C (World Wide Web Consortium) ist ein Ausschuss, der sich für einheitliche Technologien bei der Nutzung und Entwicklung des Internets einsetzt. Das Gremium wurde im Jahr 1994 am MIT in Cambridge, Massachusetts (USA), gegründet. Das Ziel des W3C besteht darin, technische Spezifikationen einheitlich zu gestalten und Richtlinien für die Entwicklung von Webtechnologien zu erarbeiten, sodass die Grundidee des World Wide Web erhalten bleibt. Vereinheitlicht und standardisiert wurden bisher Technologien wie HTML, XML, CSS und andere Auszeichnungssprachen und Webservices, die täglich von Millionen Nutzern verwendet werden.

Wenn man sich also an die Guidelines dieses Konsortiums hält, können auch hier Fehler vermieden werden. Die Guidelines sind frei unter http://einfach.st/w3c verfügbar.

Checkliste: Wichtige OnPage-Fehler finden

  • Monitoring der Fehler
  • Technische und inhaltliche Fehler differenzieren
  • Tool auswählen, Browser-Add-ons für die Analyse benutzen
  • Bei Webmaster-Tools anmelden
  • Webserver-Check
  • Robots.txt-Check
  • Robots-Tag-Check
  • Canonicals-Check
  • Analytics-Code-Einbindungs-Check
  • Inhaltlicher Check

Fazit

Um einen technisch und inhaltlich sauberen Webauftritt zu haben, sollten sich Webmaster um das Monitoring der Fehler auf der Webseite bemühen, sie in regelmäßigen Reports überwachen und das Qualitätsmanagement der Seite als Prozess implementieren. Damit können die gravierendsten Fehler rechtzeitig erkannt und beseitigt werden, bevor diese größere Schäden anrichten können. – Happy Optimizing!