SEO satt am SEO-DAY in Köln

Mario Fischer
Mario Fischer

Mario Fischer ist Herausgeber und Chefredakteur der Website Boosting und seit der ersten Stunde des Webs von Optimierungsmöglichkeiten fasziniert. Er berät namhafte Unternehmen aller Größen und Branchen und lehrt im neu gegründeten Studiengang E-Commerce an der Hochschule für angewandte Wissenschaften in Würzburg.

Mehr von diesem AutorArtikel als PDF laden

Anfang November war es wieder so weit. An die tausend SEO-Interessierte pilgerten ins Fußballstadion in Köln, um sich in drei parallelen Sessions (E-Commerce, Coder, On-/Offsite) Neues in die Ohren blasen zu lassen. Die Speakerinnen und Speaker waren auch diesmal mit Sorgfalt ausgewählt, sodass man als Teilnehmer wirklich die Qual der Wahl hatte. Das Programm hielt sowohl genügend für Einsteiger als auch für Vollprofis bereit. Gerade die technischen Sessions gingen zum Teil sehr tief. Wer den SEO-DAY versäumte und wirklich etwas mit SEO am Hut hat, sollte ihn sich für 2020 auf jeden Fall vormerken.

Was hat sich eigentlich durch das neue Google-Update „BERT“, Voice & Co. geändert beim SEO? Dieser Frage ging Malte Landwehr in seinem Vortrag nach. Durch seine Zugriffsmöglichkeit auf den großen Datenbestand von Searchmetrics war er in der Lage, auch belastbare Zahlen zu präsentieren.

„BERT? Es gibt bisher nichts Signifikantes. Punkt.“; Malte Landwehr

Gerade das Update „BERT“ treibt die Szene aktuell stark um. In Foren und sozialen Netzwerken geht sogar die Gespenstermetrik „BERT-Score“ um. Alles Quatsch, meinte Landwehr. Noch nicht mal die verschiedenen Scanner-Tools seien sich einig, wann sich eine signifikante Änderung im Ranking ergeben hätte. Und bisher bleibt BERT zunächst auf englischsprachige Websites und die USA beschränkt, obwohl deutsche SEOs schon auch hier „Veränderungen“ wahrgenommen haben wollen. Landwehr klärte auf, dass BERT eher wie damals Caffein zu sehen sei. Zum Hintergrund: Das Caffein-Update stellte im Jahr 2010 eine revolutionäre Umstellung in der Infrastruktur bei Google dar. Die vorher in Schichten nur langsam und nach und nach aktualisierten Ergebnisse wurden praktisch gleichzeitig bearbeitet. Die Antwortzeiten sanken dramatisch und neue Webseiten kamen fast in Echtzeit in den Index. Websitebetreiber waren damals durch Rankingänderungen praktisch nicht betroffen, es ging nur alles plötzlich sehr viel schneller. Ähnlich verhält es sich mit BERT. Es ist als Update zu sehen, wie Google die semantischen Beziehungen von Worten zueinander (neu) beurteilt.

„Ich würde mir über BERT keine Gedanken machen.“; Malte Landwehr

Passieren könnte, so die Einschätzung von Malte Landwehr, dass man möglicherweise Rankings verliert, mit denen man „aus Versehen“ gerankt hat, weil Google das nun besser erkennen und zuordnen kann. Online-Verantwortliche sollten auch endlich von einfachen Keywordrecherchen wegkommen und sich mehr den Themen Clustern um ein Hauptkeyword herum widmen. Die klassischen Optimierungen auf einzelne Suchbegriffe hin funktionieren nicht mehr, seit Google den Zusammenhang von Worten immer besser versteht. Landwehr zeigte das eindrucksvoll mit einem alten Screenshot im Vergleich mit einem aktuellen.

2013 brachten die Suchanfragen „headache cures“, „hedache relief“ und „migraine remedies“ bis auf zwei gleiche Ergebnisse völlig unterschiedliche Treffer (Abbildung 2). Aktuell ist fast die Hälfte der Suchergebnisse identisch (Abbildung 3). Das zeigt sehr anschaulich, dass Google nun viel besser versteht, welche Absichten hinter den Suchanfragen stecken, obwohl sie mit unterschiedlichen Worten formuliert wurden.  

Die entitätenbasierte Indexierung ändert eben alles, was den Umgang mit den Keywordrecherchen angeht, wie man bereits nach der Einführung von Rank Brain beobachten konnte. Momentan ist Google allerdings für die deutsche Sprache noch lange nicht so weit wie für Englisch, Japanisch oder Spanisch. Während in Englisch mittlerweile sogar der Content maschinell klassifiziert werden kann, fehlt für Deutsch noch eine entitätenbasierte Sentimentanalyse und darauf aufbauend dann die Klassifizierung. Noch haben deutsche Webmaster also Zeit, am sprachlichen Zusammenhang ihres Contents zu feilen. Wer schon immer semantisch gut gebauten Content hat und diesen mit echter Fachkenntnis erzeugt hat, muss ich hier wahrscheinlich gar keine Gedanken machen. Google wird diese Anstrengungen künftig immer mehr belohnen. Die Rankings dürften Update für Update automatisch immer weiter steigen. Kollateralschäden sind natürlich wie immer trotzdem möglich. Der Referent wies u. a. auch darauf hin, die Analysen von Searchmetrics zeigten, dass zwischen gut rankenden Webseiten und guten Backlinks noch immer ein Zusammenhang bestünde. Backlinks sind also nach wie vor wichtig, so die Schlussfolgerung. Am Ende gab Landwehr noch den Hinweis, auch und gerade die Usability nicht zu vernachlässigen. Da sich in den Unternehmen, wie im Web erkennbar, wohl meist niemand um dieses Thema kümmert, müssen es eben am Ende die SEOs mit übernehmen. Zufriedene Besucher erzeugen am Ende positive Signale für eine Website.

„Geht ein Lighthouse Speedindex von 100? – Ja klar!“

Dem Thema Sitespeed widmete sich Technikexperte Tobias Schwarz. Er trieb eine Webseite von sich (statisch erzeugt mit Hugo Website Builder und unter Zuhilfenahme von Google Cloud und Cloudflare CDN) so weit, bis sie tatsächlich einen Performance-Index von 100 im Google-Testsystem Lighthouse erreichte. Dabei ging es nicht darum, ob es Sinn macht, die vollen 100 zu erreichen (Antwort: Nein), sondern welche einzelnen Maßnahmen auf welcher Ebene zur Optimierung der Kennzahlen nötig waren. Hier lagen die Learnings für die Zuhörer. Punkte zum Ansetzen sind:

  • der Verbindungsaufbau,
  • die Codeausführung auf dem Server,
  • die Datenübertragung und am Ende
  • die Codeausführung im Browser.

Allein die richtige (Nachlade-)Anordnung für die Elemente einer Webseite (z. B. Bilder, Skripte, CSS) kann für einen ordentlichen Geschwindigkeitspush sorgen, wie Schwarz zeigte. Allein der Umstieg auf HTTP/2 und eine vernünftige Komprimierung brachten bereits eine Reduzierung um 57 %. Eine anschließende Minifizierung des Markups dann erneut 28 %. Bei Bildern kann das Shrinking bis zu 95 % bringen, wie Schwarz anhand des Google-Logos zeigte. Das ursprüngliche Logo von damals (6.380 Byte) hat Google selbst mittlerweile auf sage und schreibe 305 Byte gedrückt. 

Man darf auch keinen Fall das Thema Accessibility vergessen, mahnte Schwarz an. Fast 19 % der US-Bürger haben Einschränkungen ihrer Sinne oder Motorik. 8,2 % der Menschen dort haben z. B. Probleme, mit der Maus oder dem Finger klickbare Elemente auf Webseiten zu treffen. Natürlich weiß man das bei Google. Und vielleicht erreichen uns deswegen ständig Warnmails aus der Search Console, dass die klickbaren Elemente auf mobilen Seiten zu nahe beieinander lägen? Warum ignorieren das so viele? Für Sehbehinderte sollte man auf jeden Fall eine Skalierung erlauben, damit diese sich die Inhalte größer ziehen können. Eine einfache Anweisung reicht hier, empfahl Schwarz:

<meta name=“viewport“ content=user-scalable=yes, initial-scale=1, maximum-scale=5“> 

Ebenso ist der Kontrast wichtig. Wer z. B. mit der Farbkombination rot/weiß (Contrast Ratio 4) arbeitet, wird niemals eine volle Punktzahl bei automatischen Tests erreichen, da hier zu wenig optische Differenz erzeugt wird. Ein volles AAA-Rating erreichen nur Kombinationen schwarz/weiß (#000000 zu #FFFFFF, Contrast Ratio 21) oder dunkelblau/grau (#000080 zu #DDDDDD, Contrast Ratio 11,8).

„Stirb, Last-Click Attribution, stirb!“; Avinash Kaushik

Hast du überhaupt ein Attributionsproblem? Der Customer Journey ging Michael Janssen nach. Er wies darauf hin, dass Shops oder Websites mit kurzer Pfadlänge bei der Customer Journey sich in der Regel keine Gedanken über ihr Attributionsmodell machen brauchen. Wenn ein hoher Prozentsatz bereits beim ersten Besuch kauft/konvertiert, lohnt der hohe Aufwand meist nicht. Janssen empfahl, die neue datengestützte Attribution von Google Analytics zu verwenden, die gerade kostenlos ausgerollt wird und bis jetzt kostenpflichtig war. Damit dies alles sauber funktioniert und die Datenqualität sichergestellt werden kann, sollte man in jedem Fall mit sog. UTM-Parametern arbeiten und tatsächlich auch alle Marketingkanäle erfassen. Ohne definierte Ziele macht aber auch dies wenig Sinn, so der Referent. Sein wichtigster Tipp: Erst mal klein anfangen.

„Ihr könnt alle einpacken!“; Christian Solmecke

Rechtsanwalt Christian Solmecke, gern gesehener Referent und juristischer YouTube-Superstar, läutete seinen Vortrag über das neue Cookie-Urteil des Europäischen Gerichtshof provokant ein mit: „Ihr könnt alle einpacken!“ Künftig brauchen Websites eine wirksame Einwilligung beim Setzen von Cookies. Vorangekreuzte Checkboxen sind unzulässig und erzeugen Unwirksamkeit. Weiterhin sind umfassende Informationen bereitzustellen. Für unbedingt notwendige Cookies (z. B. technische Cookies für einen Warenkorb) ist allerdings noch immer keine Einwilligung erforderlich. Für alle Cookies für das Tracking, Marketing, Fingerprinting etc. braucht man in der Regel eine aktive Einwilligung und muss erklären, was man damit genau macht, so Solmecke. Die Einwilligung gilt gerade auch für sog. Drittanbieter-Cookies.

„‚Mit der Nutzung unserer Dienste/Website erklären Sie sich damit einverstanden …‘ reicht nicht aus!“

Alle bequemen Hinweise, wer die Website nutzt, erklärt sich automatisch einverstanden mit – was auch immer – sind rechtlich unwirksam, da keine aktive Handlung zur Akzeptanz vom Nutzer vorliegt. Ebenso ist es unzulässig, einen Nutzer von der Website auszusperren, weil er keine Trackingcookies akzeptiert. Auch das Opt-out (das Nachträgliche austragen) ist nicht gültig. Auch das Verknüpfen mit Belohnungen wie Gewinnspielen oder Rabattcodes etc. ist nicht zulässig. Dahinter steckt das sog. Koppelungsverbot. 

Das Cookie-Banner darf auch keine wichtigen Informationen bzw. das Impressum verdecken, wenn es erstmalig aufpoppt. Der EuGH nimmt offenbar das, was man Europa aufbürdet, selbst nicht so ganz genau, wie in Abbildung 9 zu sehen ist. Ebenso sucht man dort vergebens ein Impressum. Selbst über eine Google Site-Abfragensuche ist es nicht zu finden.

Der EuGH fordert Transparenz und damit klare und umfassend detaillierte Informationen zur Verarbeitung und dem Zweck der einzelnen Cookies, wer Zugriff auf die Daten hat (Dritte benennen) und wie lange die Laufzeit ist. Einfache Hinweise, dies sei ein Cookie für YouTube oder für Marketingzwecke, sind kritisch bzw. nicht ausreichend. Alle Cookie-Arten müssen übrigens einzeln anklickbar sein. Das könnte den Tod jeder Transparenz für E-Commerce-Websites darstellen. Welcher Besucher klickt wohl aktiv alle Cookies an? Wie muss man sich das vorstellen? „Ja, ich bitte aktiv darum: Verfolge mich im Web beim Surfen?“ Die drohende Folge: Blindflug für Websiteanbieter und das Ende für das Retargeting, wie man es heute kennt.

Achtung, jetzt kommt‘s: Die Einwilligung zur Speicherung von Cookies muss jederzeit widerrufbar sein. Dazu muss ein Hinweis auf diese Widerrufbarkeit vorhanden sein. Dieser Widerruf muss für den Nutzer ebenso einfach zu erreichen sein wie die Cookie-Zustimmung. Wie das in der Praxis funktionieren soll, ist noch völlig unklar. Noch steht die Entscheidung des höchsten deutschen Gerichts, des BGH, dazu aus, aber Solmecke vermutet, dass die Vorgabe des EuGH so übernommen wird. Und er setzte sogar noch eines obenauf. Seiner Meinung nach könnten Gerichte möglicherweise schon jetzt nach den Vorgaben des EuGH entscheiden bzw. Fragen dahingehend so interpretieren, obwohl in deutschen Verordnungen derzeit noch andere Formulierungen zu finden sind.