Eine Webadresse kann nur dann in den Google-Suchergebnissen auftauchen, wenn sie im Google-Index enthalten ist. Mit dem Indexierungsbericht der Search Console lässt sich analysieren, was (nicht) im Index ist. Doch Indexierungsbericht und URL-Überprüfung können Gegensätzliches sagen – was stimmt denn nun?
(Nicht) indexiert – oder doch (nicht)?
Was der GSC-Indexierungsbericht (nicht) sagt
Um Informationen zum Indexierungsstatus einer Seite bei Google zu erhalten, gibt es in der Google Search Console zwei Anlaufstellen: den Indexierungsbericht sowie die URL-Überprüfung. Während die URL-Überprüfung für die Analyse einzelner Seiten gedacht ist, liefert der Indexierungsbericht für bis zu 1.000 Beispiel-URLs pro Kategorie (scheinbar) aktuelle Daten. Ob „Seite mit Weiterleitung“, „Indexiert, obwohl durch robots.txt-Datei blockiert“, „Nicht gefunden (404)“ oder „Soft 404“ – in jedem Bericht warten bis zu 1.000 Beispiel-URLs. Und durch einen Klick auf die beim Überfahren einer Adresse erscheinende Lupe lässt sich die Adresse an die URL-Überprüfung übergeben. Alternativ kann eine Seite über die Sidebar oder das Suchfeld überprüft werden.
Nun kann es vorkommen, dass eine Seite im Indexierungsbericht unter einem der Gründe von „Warum Seiten nicht indexiert werden“ auftaucht. Nehmen wir einmal „Durch ‚noindex‘-Tag ausgeschlossen“. Wer seine Website im Detail kennt, der denkt sich jetzt vielleicht: „Halt, stopp! Diese Seite steht gar nicht (mehr) auf noindex! Was machen Google?!“ Das neben der URL zu sehende letzte Crawling-Datum senkt eventuell bereits den sich langsam aufschaukelnden Blutdruck – denn das, was Google im Indexierungsbericht anzeigt, ist der Status der Seite beim letzten Crawl durch Google und der letzten Aktualisierung der Daten im Indexierungsbericht. Durch ein noindex kann die Crawling-Priorität einer Seite ins Bodenlose fallen – entsprechend schwer kann es werden, eine ehemalige noindex-Seite wieder in den Index zu bekommen.
Zwar suggeriert der Chart mit seinen Tageswerten eine tägliche Aktualisierung, doch die Werte aktualisieren sich nur zweimal pro Woche. Das jeweils letzte Aktualisierungsdatum ist oben rechts zu finden – nach diesem Datum ist der jeweilige „Tageswert“ für drei oder vier Tage konstant. Das ist der Grund, weshalb sich im Indexierungsbericht bei größeren Änderungen an der Seite ein Treppenstufenmuster ergeben kann. Nun ist es nicht so, dass Google nur alle drei bis vier Tage einmal auf Seiten vorbeischaut – aber die Daten im Bericht werden in dieser Taktung aktualisiert. Das tatsächliche letzte Crawling-Datum kann also von dem im Indexierungsbericht abweichen.
Hier kommt die URL-Überprüfung ins Spiel – mit diesem sehr hilfreichen Tool können die letzten Crawling-Informationen zu einer Seite abgefragt werden oder ein erneuerter Besuch kann angestoßen werden, um die „Live-Daten“ zu bekommen. Wer möchte, der kann eine erneute Indexierung beantragen. Denn Crawling und Indexierung haben zwar etwas miteinander zu tun, doch nicht aus jedem Crawl erfolgt eine (Neu-)Indexierung einer Seite – warum auch, wenn sich auf der Seite nichts getan hat.
Wer also den Istzustand einer Seite wissen möchte, der nutzt stets die URL-Prüfung, da die Daten im Indexierungsbericht nicht tagesaktuell sind. Entsprechend kann eine Seite indexiert sein und im Indexierungsbericht noch unter „Nicht indexiert“ auftauchen. Genauso ist es andersherum möglich: Nur weil eine Seite im Google-Index war, heißt es nicht, dass sie dort auch verbleibt. Denn der Google-Index ist wählerischer geworden – viele Dokumente klopfen an die Pforte des Google-Index und wollen hereingelassen werden, doch der Partyraum ist zu klein. Von daher gibt es ein konstantes Kommen und Gehen.
