Ein Hilferuf erreicht die Redaktion. Die Betreiber einer Rabattcoupon-Site verlieren immer mehr organischen Traffic. Woran liegt das? Was kann man dagegen tun? Wir haben uns die Site angesehen und versucht, Gründe dafür zu finden. Natürlich haben wir auch überlegt, was und ob man dagegen etwas tun kann. Höchstwahrscheinlich fällt das Thema der Site in den berühmten YMYL-Bereich von Google. Dort hat man vor vielen Jahren schon damit angefangen, Websites, bei denen es um gesundheitliche oder um Themen, die den Geldbeutel betreffen, wesentlich stärker beim Ranking zu filtern. Daher auch der Name „Your money or your life“. In diesen beiden Bereichen wird mit härteren Algorithmen beziehungsweise Filtern gearbeitet, weil man nicht möchte, dass komplett falsche oder irreführende Informationen dazu in den Suchergebnissen auftauchen. Viele Pharmaunternehmen können seit Langem ein Lied davon singen. Wie immer gilt, dass wir hier hauptsächlich über Dinge berichten, die aus Erfahrung auch auf vielen anderen Websites noch im Argen liegen, sodass die Learnings für möglichst viele Leser nutzbar sind. Viel Spaß beim Lesen!
Site-Klinik: Rabatt-Coupon.com
Der erste Eindruck … Beim Aufrufen der Startseite (Abbildung 1 ) fällt zuerst ein Siegel auf (Abbildung 2). Solche Siegel können beim Erstbesucher durchaus Vertrauen erzeugen. Schließlich hat man bekanntlich nur wenige Sekunden, um jemanden zum Bleiben zu überzeugen. Ein Klick zurück zu den Suchergebnissen ist schnell gemacht und die meisten Mäuse haben mittlerweile eine eigene Taste für das Zurück. Stimmt die First Impression nicht, ist man weg und sucht weiter. Das Siegel wurde offenbar vom Fernsehsender ntv verliehen. Kundige Websurfer wissen, dass bei vielen Siegeln oft finanzielle Belange des Herausgebers im Spiel sind und keine wirklich unabhängige Verleihung stattfindet. Ob das hier der Fall ist, kann man allein schon deshalb nicht beurteilen, weil es so klein ist, dass der Text nicht mehr lesbar ist. Wer tiefer recherchiert, erfährt, dass die herausgebende GmbH zumindest offenbar nicht ganz unumstritten ist und es wohl auch schon eine erfolgreiche Klage des Bundesverbands der Verbraucherzentralen wegen Irreführung gab. Wir erwähnen das nicht, weil wir urteilen, ob dieses oder ähnliche Siegel nun seriös zustande gekommen sind. Das liegt uns fern und liegt außerhalb unserer Kompetenz. Aber da es bekanntlich immer wieder Gerüchte über eben auch erkaufte Siegel gibt, sollte man als Website-Betreiber sorgfältig darauf achten, ob und wie verwendete Siegel ankommen. Weckt ein Siegel beim Besucher Zweifel, kann die intendierte Wirkung „Du kannst uns vertrauen, sagen unabhängige andere“ schnell ins Gegenteil umschlagen. Wenn Sie ebenfalls Siegel verwenden, die nicht über jeden Zweifel erhaben sein sollten, testen Sie die Wirkung einfach. Drucken Sie Ihr Siegel aus und platzieren Sie es zusammen mit anderen auf einem Blatt Papier. Das stecken Sie sich ein und fragen einfach immer wieder Menschen, denen Sie begegnen (und die Ihre Website nicht kennen), welchem Siegel sie vertrauen würden. Und welchen nicht. Und warum. Wird Ihr Siegel häufig als zweifelhaft beurteilt, hören Sie bei den Gründen genau hin und entscheiden Sie dann, ob es eine gute Idee ist, es auf der Website zu präsentieren. Weniger kann oft mehr sein. Abbildung 1: So präsentiert sich die Startseite in der Gesamtsicht Abbildung 2: Das Trust-Symbol ist so klein, dass es praktisch unlesbar ist Im oberen Bereich der Startseite findet man den (fast) unvermeidbaren Slider, der besondere Angebote durchrolliert. Die Hauptnavigation geht optisch dabei fast unter, da die Schrift recht klein gehalten ist. Gleich unter dem Slider erfährt man beim genauen Hinsehen, dass das Portal aktuell über 19.000 Gutscheine vorhält. Auch dieses Asset könnte man größer und prominenter präsentieren. Danach starten gleich optisch immer gleiche Fenster, die nacheinander die Rabattgutscheine enthalten. Rechts in der Sidebar laufen „Unsere Top Stores“ als vertikaler Slider. Dort werden allerdings nur Logos gezeigt, die teilweise lieblos abgeschnitten sind (Abbildung 3). Etwa die Hälfte der Logos dürfte den meisten Shoppern rein gar nichts sagen. Insofern bleibt fraglich, welchen Nutzen das einem Besucher bringt. Alles, was sich eigentlich unnötig bewegt, braucht mehr Ladezeit und verschlechtert die für Google wichtigen Core Web Vitals, aber dazu später mehr. Und alles, was sich bewegt, zieht menschliche Augen nachweislich von dem weg, was sie gerade fokussieren – hier die einzelnen Rabattangebote. Abbildung 3: Ein rollierendes Fenster mit teils unbekannten und teils abgeschnittenen Logos erzeugt möglicherweise keinen ersten professionellen Eindruck Die Rabatt-„Karten“ (Abbildung 4) enthalten ein Logo, erläuternden Text und rechts oben in Grün „100% Erfolg“. Wie diese Wertung zustande kommt, erschließt sich erst auf den zweiten Blick. Man kann mit Daumen hoch oder runter voten. Gut und wichtig ist die Angabe links unten, wann das zuletzt geprüft wurde und wie lange die Aktion gültig ist. Abbildung 4: So sehen die Rabatt-„Karten“ aus Wir testen die Rabattcodes Viele Leute lieben Rabattcoupons, weil man etwas günstiger bekommt als „normal“. Unser Gehirn freut sich vereinfacht ausgedrückt. Für Online-Shops sind sie dagegen nicht immer so zielführend wie gedacht. Kommt jemand ohne Rabattcode in einen Shop und sieht in der Bestellstrecke das Feld „Gutscheincode eingeben“, leuchtet in seinem Kopf eine Warnlampe. „Oh, andere bekommen hier einen Nachlass – ich nicht!“ Allein das kann vom Kauf abhalten. Aus der Analyse von Bewegungsdaten aus vielen Online-Shops wissen wir, dass hier dann oft eine Pause eintritt. Wahrscheinlich geht der Besucher jetzt via Google auf die Suche nach „Rabattcode XY“ und hier wird man praktisch immer fündig. Viele Sites, so auch diese hier, bieten in den Suchergebnissen solche Codes an. Leider ist oft das Problem, dass viele dieser Codes nicht oder nicht mehr funktionieren. Das erzeugt Frust beim Käufer. Zu sehen ist das in den Daten im Backend der Shops. Dort sieht man, ob und wie oft Codes eingegeben und abgelehnt wurden. Je nachdem wie dringend jemand seinen Warenkorb abschließen möchte, wird hier entweder ohne Code auf „Weiter“ gedrückt oder eben frustriert abgebrochen. „Diese Ware haben wir günstiger verkauft, jetzt nicht mehr“ oder „Du hast leider nicht den richtigen Code zum Sparen, Pech gehabt“ taucht im Kopf des noch unentschiedenen Käufers auf. Macht man bei Rabattcoupons ähnliche Erfahrungen oder kann man sich auf die Angabe „zuletzt geprüft“ verlassen? Natürlich haben wir das getestet … Als Erstes haben wir Adidas ausprobiert. Hier verspricht das Portal 10 % als Rabatt mit dem Text „Melde euch zum Newsletter an“ (Abbildung 5, Ziffer 1). Der Klick auf „Zum Shop gehen“ (Abbildung 5, Ziffer 2) katapultiert uns mitten in den Adidas-Online-Shop. Zu sehen ist ein Hoody. Als Preisinformation bekommen wir, dass der Preis für dieses Teil von 48,75 Euro auf 56,25 Euro (Abbildung 5, Ziffer 3) angehoben wurde. Unschön, aber nicht zu ändern. Aber wo ist jetzt der Newsletter, mit dem wir die 10 % bekommen? Wir haben lange gesucht, aber Adidas hat seinen „Newsletter“ sehr gut versteckt. Die Suche nach diesem Wort brachte auf der Startseite keinerlei Treffer (Abbildung 5, Ziffer 4). Des Rätsels Lösung ist, dass Adidas natürlich keinen schnöden Newsletter anbietet, sondern den Adiclub. Dort erhält man zwar keine 10 %, aber „500 Willkommenspunkte“, was immer das bedeutet. Frust. Abbildung 5: Für Adidas werden 10 % Rabatt versprochen. Stimmt das? Kann passieren. Wir testen die nächste Auswahlkarte von CamPark. Hier werden 15 % Rabatt versprochen und es wird angegeben, dass dies erst heute geprüft wurde – gültig bis auf Widerruf. Das sollte man schleunigst tun, denn der Code „CB“ funktioniert nicht, wie Abbildung 6 zeigt. Nach Eingabe der beiden Buchstaben heißt es in dem deutschen (!) Shop unauffällig, aber bestimmt „Enter a valid discount code …“. Abbildung 6: Auch beim nächsten Gutscheincode werden wir nicht glücklich Nächster Versuch. Für Klarstein wird ein Rabatt von 20 % angezeigt. Wir gehen mit dem Gutscheincode in den Shop und stellen fest: Auch hier ist der Code ungültig (Abbildung 7, Ziffer 1). Allerdings bietet der Shop (Abbildung 7, Ziffer 2) sowieso volle 24 % Rabatt für alle und auf alles an. Nur heute. Am nächsten Tag gab es „nur heute“ immerhin noch 23 %. Offenbar steckt hier ein Automatismus dahinter, der wahrscheinlich juristisch korrekt einfach die Rabatthöhe durchrolliert. Und wahrscheinlich steckt da auch das Dilemma der Gutscheinportale. Die Shops ändern einfach ihre Rabatte und lassen ausgegebene Codes ins Leere laufen. Möglicherweise, aber das ist wirklich nur eine Vermutung, steckt auch der Gedanke dahinter, sich über Gutscheinportale zusätzlichen Traffic zu besorgen, aber dann keine Vergütung an das Portal zahlen zu müssen, die ja zum Rabatt noch einmal on top käme. Abbildung 7: Die nicht funktionierenden 20 % brauchen wir hier nicht. Es gibt „nur heute“ 24 % auf alles Öffnet man den Code und klickt auf „Kopieren“ (siehe den blauen Button in Abbildung 7), geht es plötzlich nicht mehr weiter. Der Button „Zum Shop gehen“ funktioniert fatalerweise nicht. Des Rätsels Lösung? Die Seite gibt ganz oben ein Fester mit dem Hinweis aus, dass der Code erfolgreich kopiert wurde. Dies muss man per „OK“ quittieren – eine kleine und unnötige Usability-Falle. Wir haben noch vier weitere Gutscheine ausprobiert. Drei haben nicht funktioniert, der letzte dann doch. Es funktioniert also prinzipiell, wenn auch nur ab und zu. Man kann blättern oder sich „alle Artikel“ anzeigen lassen. Doch wer will alle Artikel sehen oder lesen? Eine themenorientierte Navigation sucht man vergebens. Und wenn der Blogbeitrag „Offroad trifft Urban: CMACEWHEEL V20 – Euer Fortbewegungsmittel ganz im Stil von GTA“ oder „Jetzt mit dem UPgrade Vorteil – Hier sind die neuen HELLO! UP Tarife von Lebara“ nicht interessiert, muss man auf die Idee kommen, über das Suchfeld nach einem Thema zu suchen. Für Content hat Rabatt-Coupon.com auch gesorgt. Ein Team von Redakteuren schreibt regelmäßig über alle möglichen Themen und verlinkt aus den Beiträgen heraus auf passende Gutscheine. Hier ergibt sich das gleiche Problem wie bei vielen Anreicherungen mit Content. Es entstehen viele Blogbeiträge über alle möglichen Themen, die dann nebeneinander auf einer Übersicht wie bei Blogs üblich aufgelistet werden. Die Beiträge sind übrigens auf den ersten Blick gut geschrieben für den beabsichtigten Zweck. Trotzdem muss man kritisch hinterfragen, ob man über alle Themen wirklich „useful content“ erzeugen kann. Und Google wird nicht müde, das zu betonen. Auf welchen Plattformen würde man sich zum Beispiel informieren, wenn man mit dem Gedanken spielt, Motorrad zu fahren? Auf einem Gutscheinportal? Wir haben beispielhaft einige Sätze aus einem Blogbeitrag herausgegriffen: „Das Gefühl von Freiheit, wenn ihr auf eurem Motorrad die Straßen entlang rauscht, ist unbeschreiblich. […] Motorradfahren ist mehr als nur eine Fortbewegungsmethode. Es ist ein Lebensgefühl, das man leben muss, um es zu verstehen. […] Motorradfahren ist nicht einfach nur ein Hobby […] Taucht ein in die Welt des Motorradfahrens. […] lasst euch von der Freiheit des Motorradfahrens verzaubern!“ Wahrscheinlich wurde der Text mit viel Herzblut geschrieben. Trotzdem wirkt er in Zeiten der automatischen Content-Erzeugung via ChatGPT und Co. in weiten Teilen genau so. Als ob eine KI beim Schreiben mit den üblichen Floskeln zumindest geholfen hätte. Zumindest einige Formulierungen wirken typisch KI und könnten damit ein Problem für das Ranking – rein auf den Content bezogen – darstellen. Diese blumigen und ehrlicherweise oft wenig wirklich hilfreichen Formulierungen tauchen derzeit überall im Web auf und erzeugen damit ein Muster, dass eine andere KI, nämlich die von Google, zumindest mit Verdacht erkennen kann. Ein anderer Beitrag widmet sich der Rückkehr von Stefan Raab ins Fernsehen. Die Verbindung zu Gutscheinen? Raab war gelernter Metzger und daher werden dort Gutscheine für die Grillsaison angeboten. Witzig, aber wahrscheinlich von der Leseintention für einen solchen Beitrag schon sehr weit weg. Ein Hinweis am Ende, dass Raab für den Boxkampf fitter werden muss und man eben auch Gutscheine für MyProtein hätte, schließt den Beitrag ab und erinnert uns an den alten Spruch „Reim dich oder ich fress dich!“. Irgendwie kann man jedes Thema irgendwohin biegen. Da man die vielen Blogbeiträge nicht wirklich übersichtlich als Besucher nutzen kann, drängt sich die Vermutung auf, dass der Content hauptsächlich als „SEO-Catcher“ dienen soll. Die weite Spreizung via Blog einer Domain über alle möglichen Themen funktioniert allerdings bei Google in letzter Zeit immer weniger. Entweder braucht man einen wirklichen Mehrwert, also neue Informationen, die man nicht an jeder Ecke im Web findet, oder eine massive Konzentration auf ein Hauptthema. Für die Gießkanne wird es immer schwerer. Früher hat das prima funktioniert – die vielen Updates, die auf Inhaltsqualität abzielen, waren aber tatsächlich ein Gamechanger fürs Ranking. Die verwendeten Bilder sind, soweit wir das gesehen haben, alle von Stockfoto-Anbietern und kostenlos nutzbar. Dagegen ist zunächst nichts einzuwenden. Wenn ein Bild allerdings bereits über 6.000-mal heruntergeladen wurde und zudem außer einem Markennamen nichts mit dem Content zu tun hat, kann das schon Probleme bei der Google-Qualitätsanalyse machen (Abbildung 8). Schwarze Schuhe für einen Blogbeitrag, der erklärt, wie Adidas und Puma sich entzweit haben? Das wirkt sicher nicht nur für Google, sondern auch für den Leser dann doch irgendwie nach „schnell zusammengeschustert“, damit ein paar Bilder da sind. Bilder sind für das Ranking wichtig, ja. Aber passen sollten sie schon. Und noch ein Hinweis am Rand: Wenn viele andere Sites das gleiche Bild in einem anderen Zusammenhang verwenden, schreibt Google diesen in den zugehörigen Bildcontainer, wo alle URLs mit diesem Bild verwaltet werden. Auch darüber kann das Thema eines Bilds auf passend/unpassend geprüft werden. Abbildung 8: Kostenlose Stockfotos sind prinzipiell kein Problem. Sie sollten nur passen und nicht auf Tausenden anderen Seiten in anderen Zusammenhängen verwendet werden Abbildung 9: Kostenlose Bilder werden oft exzessiv auch von anderen verwendet Die Nutzer halten sich im Schnitt nur sehr kurz auf der Website auf. Für die Menge an Content und den Umfang an Seiten kann das durchaus negative Signale über den Chrome-Browser erzeugen. Wie in der letzten Ausgabe ausführlich erklärt sorgt ein nachgelagertes System namens NavBoost bei Google dafür, dass Seiten mit weniger guten Nutzermetriken in der potenziellen Ranking-Liste nach weiter hinten rutschen. Auch der Anteil an sogenanntem Direct Traffic ist vergleichsweise niedrig. Daraus lässt sich ablesen, dass fast niemand den Domainnamen eingibt beziehungsweise sich an ihn erinnert. Je höher der Anteil an Direktzugriffen ist, desto bekannter ist eine Marke/Domain, so die nicht ganz unvernünftige Logik dahinter. Auch das dürfte ein Punkt sein, der dem Ranking nicht gerade zuträglich ist. Wie sieht es mit dem Thema SEO aus? Ein kompletter Crawl aller Seiten der Domain war im Rahmen dieser Site-Klinik leider nicht möglich. Es werden so viele URLs erzeugt, dass wir nach einem Tag abbrechen mussten. Auch diverse SEO-Tools scheiterten dabei, die Domain als Ganzes zu erfassen. An solchen Stellen wird einem oft klar, welch harten Job die Engineers bei Google machen müssen, um automatisiert die „richtigen“ URLs herauszufinden. Über 150.000 URLs kennzeichnet Google als „nicht indexiert“. Gut 50.000 wurden per robots.txt oder „noindex“ vom Betreiber ausgeschlossen. Problematisch sind über 10.000 Seiten, die Google zwar als gefunden kennzeichnet, die aber für die Suche nicht indexiert werden. Darunter befinden sich Couponseiten ebenso wie Blogbeiträge. Das bedeutet, dass Google Blogbeiträge zwar kennt, sie aber nicht als wichtig oder gut genug beurteilt, um sie in der Suche auffindbar zu machen. Wir haben uns das für einen Blogbeitrag beispielhaft angesehen und vermuten, den Grund für das Verschmähen der Seite gefunden zu haben. Wie in Abbildung 10 zu erkennen ist, werden 122 von 163 Ressourcen für den Aufbau der Seite per robots.txt für Google blockiert. Meist klappt das Rendern dann nicht mehr richtig und Google kann die Seite nicht so „sehen“, wie sie der Mensch im Browser präsentiert bekommt. Abhängig davon fällt dann die Entscheidung, ob man sie trotzdem in den Index aufnimmt oder lieber vorsichtig bleibt und dies unterbindet. Über diverse Skripte und CSS-Zaubereien versuchen Spammer bekanntlich, Google Dinge vorzugaukeln, die der Menschen eben so nicht sieht. Daher gibt es diverse Vorsichtsmaßnahmen. Abbildung 10: Das Rendern einer Seite per robots.txt zu verbieten, ist meist keine gute Strategie Nach dem manuellen Beantragen der geprüften URL in der Search Console sind im Index zwei seltsame Dubletten aufgetaucht. Sucht man gezielt nach der URL des Blogbeitrags, erscheinen (siehe Abbildung 11) zwei Ergebnisse, die beim Klick zwar auf die richtige URL und damit auf den Blogbeitrag leiten, aber bei der Zusammenstellung des Snippets und der URLs ist wohl einiges durcheinander geraten. Abbildung 11: Hier ist offenbar einiges in Unordnung geraten Das Problem könnte an einer Eigenart der URLs liegen. Man hat bei einigen URLs hinten Sonderzeichen angehängt, die dann im Browser als bunte Icons angezeigt werden. Die originale URL www.rabatt-coupon.com/gutschein/jako-aktion-bis-zu-30-auf-coole-outfits-und-nuetzliche-accessoires-%F0%9F%8E%92%F0%9F%90%BC/ sieht dann zum Beispiel in der Browseradresszeile wie in Abbildung 12 aus – hinten sieht man lustige Tierchen: Abbildung 12: Angehängte Sonderzeichen sollen Aufmerksamkeit bringen – verwirren aber wohl Google Auch die „site:domainame.de“-Abfrage bei Google zeigt als erste Ergebnisse nicht die Startseite an, sondern ein „Oster Special“, das auf eine offensichtlich veraltete, nicht mehr funktionstüchtig erscheinende Seite führt. Abbildung 13: Ups: Hier stimmt etwas ganz und gar nicht SEO-Basics Die Title der meisten Seiten scheinen gut getextet und aussagekräftig. Die Meta Description wurde nach einfachen Mustern automatisiert erstellt. Die Description ist zwar inhaltlich nicht fürs Ranking relevant, soll aber Suchende in den Ergebnissen eine gute Erklärung bieten, was einen erwartet. Einige Experten vermuten auch, dass mechanisch erzeugte Beschreibungen bei Google kein gutes Ansehen haben. Daher werden sie oft in den Suchergebnissen mit Textschnipseln von der Website ausgetauscht. Abbildung 14: Die Meta Description wird nach einem Muster zusammengestellt Nicht erst seit den letzten Google-Leaks wissen wir, dass Google Überschriften (H1, H2 etc.) als sogenannte Hotstepper verwendet, um Abschnitte und thematische Varianzen/Feinheiten auf einer Seite besser erkennen zu können. Wird die logische Reihenfolge der Überschriften, wie in Abbildung 15 zu sehen ist, unterbrochen (von H1 ohne H2 direkt zu H3 oder weiter unten von H2 direkt auf H4), ist dies ein erstes Indiz, dass die Hx nicht als echte Überschriften zur Textgliederung verwendet wurden. Werden dann per Überschrift auch noch Footer- und Sidebar-Inhalte in die Dokumentenstruktur eingebunden, entsteht genau das, was man eigentlich nicht will: falsche Content-Signale. Abgesehen davon, dass man bei einem Verwerfen der Hx-Analyse seitens Google darauf verzichtet, den Wörtern in solchen Überschriften gezielt mehr Gewicht mitgeben zu können, klappt im schlimmsten Fall auch die Zuordnung des Contents einer Seite nicht mehr. Abbildung 15: Gebrochene Logik bei den Überschriften und Überschriften-„Missbrauch“ Abbildung 16: Audit Tools wie Ryte schlagen tief rote Kerben in die Analyse... Durch die technischen Probleme tun sich auch SEO-Tools wie der Screaming Frog, Ryte oder ahrefs ohne tiefgehende Parametrisierung sehr schwer, die Domain als Ganzes zu erfassen. Es gibt zu viele URLs, noindex, Weiterleitungen, verwaiste Seiten und mehr, als dass eine komplette Analyse der „richtigen“ Seiten im gegebenen Rahmen möglich wäre. Ahrefs zeigt als sog. „Health Score“ gar nur 2 von 100 Punkten an. Und auch bei Ryte geht die Anzahl der identifizierten „Probleme“ in den siebenstelligen Bereich. Das wirkt auf den ersten Blick zwar niederschmetternd, liegt aber tatsächlich zum einen daran, dass nur etwa 2 Mio. URLs erfasst werden konnten und Verlinkungen auf Fehlendes natürlich als Fehler gezählt werden. Zum anderen potenziert die Crawling-Verbotsstratgeige der Domain viele Probleme. Das organische Ranking funktioniert nicht Blickt man auf die Rankings, lassen die Daten auf den ersten Blick erkennen, dass Google die Site nicht wirklich mag. Etwa zwei Drittel allen organischen Traffics werden von nur zwei URLs eingefangen. Dabei liegt eine Gutscheinseite sogar noch höher als die Startseite selbst. Summiert man in der Tabelle (Abbildung 17) weiter, machen sieben URLs praktisch 90 % des Traffics aus. Fast 5.000 URLs bekommen keinen einzigen Klick über die organische Suche ab, obwohl sie in der Suche aufgetaucht sind. Darin sind noch nicht die URLs enthalten, die sich einem schnellen Crawling durch Tools entzogen haben (siehe oben). Zählt man diese noch dazu, wirkt die Analyse noch dramatischer. . Abbildung 17: Nur sieben URLs machen 90 % des organischen Traffics aus Sieht man sich in einem SEO-Tool wie zum Beispiel Sistrix die Ranking-Verläufe einzelner Keywords über die Zeit an (Abbildung 18), stellt man bei vielen ein a) stark schwankendes Muster und b) immer wieder unterschiedlich lange Unterbrechungen beziehungsweise Auswandern über Position 100 fest, was vom Tool nicht mehr erfasst wird. Das kann durch die erwähnten technischen Probleme seitens der Domain passieren oder dadurch, dass die Keyword-/URL Kombinationen bei Google sehr volatil auf der Kante stehen und kleinere Updates eben ein Down oder ein Up erfahren. Da es generell wenige gute Rankings gibt, ist eine Einschätzung durch die wenigen Daten schwer. Was man allerdings erkennen kann, ist, dass das sogenannte Helpful-Contentful-Update im September letzten Jahres durchaus einen sichtbaren Drop verursacht hat. Seither geht es kontinuierlich weiter nach unten. Weitere Analysen auf Keyword-Basis, wie etwa eine analytische Aufteilung in Brand-/Non-Brand-Keywords oder eine semantische Zerlegung, sind daher wenig sinnvoll. Ein schneller Blick offenbart aber schon, dass Worte wie Rabatt oder Gutschein auch beim redaktionellen Inhalt stark dominieren. Abbildung 18: Die Ranking-Verläufe sind immer wieder unterbrochen (Quelle: Sistrix) Was sagt Google zur Benutzerfreundlichkeit? Da sieht es ehrlich gesagt gar nicht gut aus. Für die Core Web Vitals wird keine einzige URL als gut ausgewiesen, weder für Mobil noch für Desktop. Die (kalkuliert hochgerechnete) Zeit für eine Seite schwankt beim sogenannten Largest Contentful Paint (der Slider oben auf der Seite) zwischen 35 und 50 Sekunden in der Lighthouse-Diagnose. Diese hohen Werte sind nicht real, sondern liegen wahrscheinlich daran, dass wie erwähnt fast alle Ressourcen, die zum Rendern nötig sind, blockiert wurden. Aber auch in der realen Bedienung fühlt sich die Site nicht gerade schnell an. Die meisten Nutzer kommen via Smartphone und sind erfahrungsgemäß sehr ungeduldig. Auch das kann ein Grund sein, dass beim endgültigen Ranking die Ergebnisse der Domain über einen Twiddler (siehe letzte Ausgabe) aussortiert beziehungsweise zurückgestaucht werden. Insbesondere dann, wenn andere mitrankende Seiten deutlich bessere Metriken aufweisen. Abbildung 19: Lange Ladezeiten und große Elemente lassen die Performance nicht gut aussehen Fazit Vermutlich ist es eine Kombination aus beidem. Die Site hat im Kernbereich der Gutscheine wenig wirklich einzigartigen Content, der sich zudem ständig ändert beziehungsweise ändern muss. Das Erstellen von Content via Blog hilft hier wenig, Google ignoriert diese Beiträge ganz offensichtlich. Und für die klassischen Keyword-Kombinationen wie beispielsweise „Gutschein Brand/Produkt Y“ oder „Rabattcode für Brand Y“ gibt es starke Mitbewerber im Web. Unglücklicherweise müssen sich alle diese Mitbewerber diese Keyword-Sets teilen. Es ist vereinfacht immer eine Umschreibung von Rabatt und einer konkreten Marke. Auf der anderen Seite findet man hier viele technische Eigenarten, die Google durchaus zu schaffen machen können. Um die einzelnen Probleme genau zu identifizieren, muss man sich mit einem technischen Audit tief in die Analyse begeben, was den Rahmen hier bei Weitem sprengen würde. Dummerweise lässt sich nicht prognostizieren, ob das Beheben von Barrieren und Optimieren des Crawl-Managements die Ranking-Probleme beheben kann. Wenn die Hygienefaktoren stimmen, könnte es am Ende trotzdem und letztlich auch daran liegen, dass die Besucher in Summe – als Vermutung – nicht zufrieden mit der Site sein könnten. Wäre das der Fall und Google erkennt dies über die Nutzungsmuster via Chrome, hilft das Beheben technischer Hürden allein leider nichts. Und ganz am Ende müsste man natürlich auch noch die vielen starken Mitbewerber ansehen. Hat man wirklich eine reelle Chance gegen sie? Machbar ist alles – aber um mögliche Rückstände wirklich aufzuholen, nein, die Mitbewerber zu überholen, muss man gegebenenfalls viel Budget in die Hand nehmen. Und das ist eine betriebswirtschaftliche Entscheidung und keine, bei der ein kurzes Audit wie hier wirklich hilfreich sein kann. Eine schnelle bzw. einfache Problemlösung kann man hier bedauerlicherweise nicht auf den Tisch legen. Wir empfehlen allerdings, die heftigsten Strukturprobleme schon alleine im Hinblick auf die Geschwindigkeit des Seitenaufbaus und eines besseren Crawlmanagements wegen möglichst bald anzugehen.
