Der virtuelle SEO-Day 2020

Mario Fischer
Mario Fischer

Mario Fischer ist Herausgeber und Chefredakteur der Website Boosting und seit der ersten Stunde des Webs von Optimierungsmöglichkeiten fasziniert. Er berät namhafte Unternehmen aller Größen und Branchen und lehrt im neu gegründeten Studiengang E-Commerce an der Hochschule für angewandte Wissenschaften in Würzburg.

Mehr von diesem AutorArtikel als PDF laden

Weinige Tage vor dem SEO-Day in Köln, bei dem diesmal nur ein Bühnentrack live vor Publikum geplant war, aber drei weitere parallele virtuelle Sessions, ereilte den Veranstalter das Corona-Verbot – ähnlich wie es im Frühjahr der SMX passiert war. Fabian Rossbacher disponierte kurzfristig um und ließ den gesamten SEO-Day remote laufen. Das hatte den Vorteil, dass man die Sessions auch während der Vorträge bequem wechseln konnte, falls sich ein Thema als doch nicht so relevant für einen persönlich erwies. Auf Konferenzen geht das ja meist leider nicht, da die Räume erfahrungsgemäß so voll sind, dass ein Wechsel oder das Session-Hopping den Verlust eines Sitzplatzes bedeuten kann und häufig auch bedeutet. Aufseiten der Referenten war vom Professionalitätsgrad fast alles dabei, von vorab aufgezeichneten Videos bis hin zur Sprechereinblendung via Greenscreen auf den Folien. Trotz aller Vielfalt zeigte sich aber dann doch, dass der so wichtige Austausch in kleinen Gruppen, die Gespräche am Rand und das Treffen alter Bekannter spürbar fehlten. Wir können alle nur hoffen, dass die alten Formate nach der Krise wiederhergestellt werden und die Teilnehmer bis dahin soweit am Ball bleiben und damit die Veranstalter nicht im (finanziellen) Regen stehen lassen. Trotz alledem war auch dieses Jahr fachlich wieder genügend Interessantes, Tipps und Erklärungen dabei, sodass sich der SEO-Day auch virtuell lohnte!

Nun, ein Gutes hatte die Virtualisierung auf jeden Fall. In Summe waren nach Angaben des Veranstalters 2.860 „anwesend“ und der kostenfreie Livestream aus Raum 4 sorgte für um die 7.000 Teilnehmer.

Rene Dhemant versuchte, in seinem Vortrag mit dem Missverständnis aufzuräumen, was Kunden erwarten (Champagne Vision), wenn sie ein SEO-Audit beauftragen, und was man vernünftigerweise leisten und liefern sollte (Beer Standard). Sicher würde wohl kein Patient einem Arzt Vorschriften machen, wie und was er genau untersuchen sollte. Das überlässt man dem Experten. Bei SEO ist das oft anders. Da meint der Kunde, sehr genau Bescheid zu wissen, und besteht mit teilweise umfangreichen Briefings auf bestimmten Vorgehensweisen oder Analysen.

Ein wichtiger Punkt für ein Audit ist nach Meinung Dhemants die interne Verlinkung. Insbesondere solle man auf unnötige Weiterleitungen (301 und 302) achten und auch auf die Ankertexte. Wer das Noindex-Tag einsetzt, muss sich darüber bewusst sein, dass hier (PageRank-)Power verschenkt bzw. vernichtet wird. Das gilt es bei einem Audit in jedem Fall zu prüfen. Gerade Shops vernachlässigen oft das Verwenden von transaktionsorientierten Ankertexten, wenn sie in den Shop bzw. auf Produktseiten verlinken. Ankertext-Wortanhängsel wie „kaufen“ oder „bestellen“ können Google helfen zu verstehen, dass hier am Linkzielende keine Informationsseiten warten, sondern dass etwas verkauft wird. So gelingt der Match mit suchenden Kaufwilligen oft deutlich besser. Und natürlich ist es auch für menschliche Besucher einer Website besser, klarer zu sagen, wo man per Klick genau hinkommt.

Über entsprechende Tools, Dhemant zeigte das beispielhaft in „Sitebulb“ und dort eingesetzte intelligente Filter (Abbildung 1), lassen sich noch nicht optimierte Ankertexte recht leicht aufspüren. In diesem Fall wurde spezifiziert, dass die Seite (Referring URL) mit dem abgehenden Link das Muster /blog/ in der Adresse haben muss und die Seite, auf die der Link zeigt (Target URL) dann eben /shop/. Als dritter Filter wurde in diesem Beispiel angegeben, dass der Ankertext nicht (Does not Contain) das Wort „kaufen“ enthalten soll. Als Ergebnis findet Sitebulb 376 Ankertextlinks aus dem eigenen Blog, der in den Shop verlinkt – aber eben nicht mit dem Wort „kaufen“.  

 

Eine weitere große Baustelle, die man bei SEO-Audits findet, ist die Filter- und Facettensuche. Dazu empfahl er, dies clientseitig umzusetzen, als Funktionalität in den Browser zu übertragen. Dabei solle man nicht alle Produkt-Varianten als eigene URL umsetzen, also nicht für jede Farbe oder Größe jeweils eine eigene URL erzeugen. Von entsprechenden GET-Parametern sollte man in diesem Zusammenhang i. d. R. besser die Finger lassen, so Dhemant. Unternehmen denken oft, sie hätten das Facetten-/Filterproblem gelöst, was leider meist nicht der Fall ist.

Zur Behebung bzw. Vermeidung „irrelevanter“ Links für die Suchmaschinenbots sollte man besser die sog. Linkmaskierung einsetzen und das unabhängig vom verwendeten Shopsystem. Technisch kann man dies mit sog. PRG-Pattern oder mit Onclick-Events lösen. Wie das im Detail umsetzbar ist, zeigt Dhemant frei zugänglich unter rene.fyi/linkmaskierung. Der Vorteil einer solchen Linkmaskierung ist, dass der Bot diesen Link erst gar nicht zur Kenntnis bekommt und man damit auch das Linkziel nicht über weitere, oft nachteilige Maßnahmen vom Crawlen oder Indizieren aussperren muss.

Einen wichtigen Abschlusstipp hatte der Referent noch. Statt JavaScript mit all seinen Performancenachteilen solle man lieber künftig auf CSS3 als Standard setzen.

Die interne Verlinkung war auch das Thema bei Martin Bongartz, wobei er sich auf den Bereich des E-Commerce konzentrierte. Er wies darauf hin, dass man die Anzahl der abgehenden Links auf einer Seite möglichst geringhalten sollte. Über Flyout-Navigationen würden viel zu viele Links gesetzt, erklärte Bongartz. Damit erhebt man zu viele Seiten in die erste Ebene, eben auch eigentliche Unterseiten. Anhand eines Beispiels (Abbildung 2) zeigt er dies dann auch konkret. Die Site hat eigentlich eine Hierarchie. Ebene 1 wäre z. B. Kaffee & Espresso, Ebene 2 dann „Zubereitungsart“ und Ebene 3 „Filterkaffee“. Durch das gleichzeitige Darstellen und Verlinken verschwimmt diese Hierarchie aber in der Wahrnehmung des Google-Bots zu einer einzigen. Damit aber nicht genug: Auf der rechten Seite „Top-Suchbegriffe“ werden weitere Links auf Ebene 1 angelegt. Und wenn man genau in Abbildung 2 hinsieht, erkennt man, dass sich unter dem im Screenshot ausgeklappten Flyout-Menü eine weitere Linkauflistung befindet. Hier braucht der Besucher zur Entscheidung für einen Klick wohl tatsächlich erst mal eine Tasse Kaffee … Nimmt man oft umfangreiche Footerlinks sowie Intext-Links noch mit dazu, kommt man schnell auf eine Summe von zwei- bis dreihundert abgehenden Links. Dass diese schiere Anzahl einem Besucher wohl nicht weiterhilft, werden die wenigsten Experten bezweifeln. Google sollte man immer möglichst eindeutige und klare Signale geben – und das gilt auch und ganz besonders für die Erkennung der Hierarchie und damit dessen, was wichtiger und weniger wichtig ist.

Den Hintergrund für die Überlegungen lieferte Bongartz gleich mit: Jede Seite hat nur eine definierte Power, die sie (mathematisch gedämpft) über Links auf andere Seiten übertragen kann. Zehn Links übertragen also je zehn Prozent dieser Power. Setzt man 200, bleibt nur noch ein halbes Prozent übrig für alle (!) angelinkten Seiten.

Auch er empfahl Linkmaskierung als erprobtes Mittel der Wahl und als Lösung für das Dilemma. Damit wird es möglich, auch in Flyout-Menüs eine Hierarchie abzubilden, wie dies in Abbildung 3 gezeigt ist. Die hell überlegten Bereiche sind dann jeweils diejenigen, die via Linkmaskierung von einer Erkennung durch den Suchmaschinenbot geschützt sind, da dieser über das HTML-Tag <a href…> nach Links sucht. Gehören einzelne Abteilungen oder z. B. Produkte zusammen, kann man das jetzt ganz gezielt über Links kenntlich machen. In Abbildung 3 wird das im Quadranten unten rechts deutlich. Zu gemahlenem Kaffee passen Siebträger-Kaffeemaschinen. Das wird per Link verbunden. Einem Vollautomaten führt man bekanntlich in der Regel ganze Kaffeebohnen zu, ein Link bzw. eine Verbindung wäre da unpassend. Ohne Maskierung wird aber zur Erinnerung alles mit allem direkt verlinkt und die Signale für die Suchmaschine werden damit stark verrauscht. Abbildung 4 zeigt beispielhaft, wie eine Maskierung umgesetzt werden kann bzw. wie man einerseits die Verwendung des <a href…>-Musters vermeidet, den Link aber über eine kleine JavaScript-Funktion dennoch für Besucher klickbar macht.

Linkmaskierung rechtlich nötiger Seiten?

Im Forum der Konferenz wurde kurz kontrovers diskutiert, ob man z. B. die Power, die in das Impressum oder die Datenschutzhinweise als oft angelinkte Seiten fließt, durch Linkmaskierung den anderen, übrigen Links zuschlagen könnte. Während die einen dies bejahten, wiesen andere darauf hin, dass es ggf. hier zu rechtlichen Problemen bzw. Abmahnungen kommen könnte. Niemand zwingt einen dazu, JavaScript im Browser aktiv zu erlauben. Jemand, der das (vielleicht auch gezielt, Abmahnanwälte lassen grüßen) abgeschaltet hat, für den ist ein Klick auf das Impressum folgenlos – der Link funktioniert nicht, das Impressum und ggf. weitere rechtlich nötige Seiten sind nicht aufrufbar. Ob man dieses Risiko eingehen möchte, sollte man sich genau überlegen.  

Der guten Ordnung halber muss man freilich im Kopf behalten, dass Google zum Teil heute schon JavaScript auflösen kann und das auch macht. Die Strategie der Linkmaskierung über JavaScript könnte also möglicherweise ein Verfallsdatum für die Gültigkeit haben.

Johannes Beus von SISTRIX erklärte in seinem Vortrag sehr anschaulich, was es mit den neuen Core Web Vitals auf sich hat. Er räumte auch mit dem Vorurteil auf, dass die Labordaten-Metriken aus dem Google-Tool Lighthouse essenziell wären. Diese werden zwar immer gleich gemessen und sind damit reproduzier- und vergleichbar, aber tatsächlich würde Google die sog. Feld-Daten im nächsten Jahr als (Teil-)Grundlage für das Ranking heranziehen. Diese Felddaten werden über ein Chrome-Nutzerpanel gemessen, es sind also die echten Werte, so wie sie User in den Browser bekommen bzw. wie sie sich dort auswirken. Die Labordaten sind eher theoretischer Natur (aber deswegen für Einschätzungen und Test nicht weniger wichtig). Das Problem: Es liegen noch nicht für alle Webseiten solche Feld-Daten vor, gerade bei wenig besuchten Webseiten wird dies wohl auch noch dauern.

Beus stellte eine eigene Studie über Ladezeiten vor, für die 18,5 Mio. Domains analysiert wurden (Abbildung 5). So schlecht sieht es demnach im deutschen Web gar nicht aus. Beim Largest Contentful Paint (LCP) sind bereits drei Viertel aller Zugriffe grün und damit ausreichend. Knapp über zehn Prozent bewertet Google aktuell als schlecht.

Beim First Input Delay (FID), die Zeit bis zur Möglichkeit der Interaktion durch User, sieht es laut Studie sogar noch besser aus. Lediglich zwei Prozent haben noch deutlichen Nachholbedarf und sollten schnell reagieren, um nicht ins Hintertreffen zu gelangen.

Beim Cumulative Layout Shift (CLS), also der optischen Verschiebung von Objekten noch während des Ladevorgangs, fiel den Studienerstellern auf, dass Webseiten diesen Test in der Regel entweder bestehen (grün) oder er vollständig fehlschlägt (rot).

Beus hat mit seiner Mannschaft auch die Geschwindigkeit (LCP) von Content-Management-Systemen (CMS) gemessen. Jimdo und Typo3 schnitten dabei am besten ab (jeweils über 80 %), während Wix mit nur 52 % die rote Lampe verliehen bekam und noch deutlich langsamer als WordPress (58 %) war. Diese und weitere Messungen z. B. für Shopsysteme, CDNs oder AMP sowie Hintergrund zur Methodik lassen sich bei SISTRIX kostenlos unter einfach.st/sistrixcwv nachlesen.

383.605 manuelle Qualitätsprüfungen hat Google 2019 durchgeführt.

Etwas 10.000 sog. Quality Rater überprüfen im Auftrag von Google die Qualität von Webseiten bzw. wie sich die Änderungen in den Algorithmen auswirken. Michael Brumms Vortrag drehte sich um die sog. Guidelines für Quality Rater, über die wir in der Website Boosting ja ebenfalls schon mehrmals ausführlich berichteten. Die Quality Rater haben mit ihrem Votum zwar keinen Einfluss auf das Ranking, aber aus deren Bewertungen und den dahinter liegenden Webseiten lässt sich über Machine Learning natürlich für Google eine Menge – automatisiert – lernen

Brumm zeigte, dass es durchaus Sinn macht, sich anzueignen, wie Google diese Bewertenden schult bzw. was und wie zu prüfen man ihnen mit auf den Weg gibt. Das zeigt am Ende recht transparent das Qualitätsverständnis von Google. Die aktuellen Guidelines vom Oktober dieses Jahres findet man bei Bedarf unter einfach.st/gqrg102020.

Autorität für Websites kann aufgebaut werden, so Brumm, indem man in seiner eigenen Branche bleibt und somit das Profil schärft. Dazu gehört ggf. auch der Einsatz externer (bekannter) und interner Autoren, die wirklich Experten in ihrem Feld sind. Positive Bewertungen bei externen Portalen können ebenso einen Einfluss haben wir Backlinks von Sites mit bereits bekannter Autorität. Für Autoren sollte man wichtige Eckdaten nennen – und zwar direkt auf der Seite, auf der sie schreiben. Auch hier gilt: Fokus, Fokus, Fokus statt eines möglichst weit aufgespannten Themenfeldes. Wichtige Texte sollte man nicht über Texterbörsen erstellen lassen, auch wenn dies verlockend billiger und schneller geht, so der Referent. In jedem Fall sollte man aber via erweitertes Mark-up unter Zuhilfenahme von schema.org-Vorgabe auch maschinenles- und verstehbar die Autorendaten im HTML hinterlegen.

Ein Fazitversuch für virtuelle Konferenzen

Wie bereits eingangs erwähnt, haben wir derzeit eine ganz besondere Situation. Für Konferenzteilnehmer ist neu, dass man nicht dazwischenfragen kann, dass man alleine vor einem Bildschirm sitzt und am Ende eines Vortrags plötzlich „Schluss“ ist. Es ist still und in 20 Minuten geht es weiter. Foren kann man nutzen, ebenso Sidetracks, in denen man aktiv diskutieren kann. Das Feeling ist trotzdem anders. Für die Vortragenden ist es das gleiche Kreuz. Statt auf einer Bühne, statt Augenkontakt mit dem Publikum, statt Raunen, Gelächter, Applaus bzw. gar Standing Ovations oder sonstiger warmer Rückmeldungen schaut man in eine Kamera. Alleine. Nach dem Vortrag ist es auch still. Niemand kommt zu einem nach vorne gelaufen und fragt etwas. Daran müssen wir uns alle wohl erst noch – richtig – gewöhnen, während ein großer Teil wohl hofft, sich nicht zu lange daran gewöhnen zu müssen, weil wohl alles bald wieder normal wird. Wirklich? Wie viele Veranstalter werden das wohl überleben, nachdem, wie sie bisher gebeutelt wurden? Die Branche sollte daher zusammenhalten und gerade in dieser Zeit zusammenstehen. Dies gilt auch den Veranstaltern gegenüber. Den einen oder anderen Fauxpas oder inhaltlichen Ausfall eines Speakers sollte und darf man großzügig übersehen. Das bezieht sich nicht speziell auf den SEO-Day, sondern auf alle virtuellen Konferenzen dieser Tage. Solange genügend Neues dabei rüberkommt, ist und sollte alles gut sein. Der SEO-Day hat sich jedenfalls auch virtuell gelohnt. Trotzdem hoffe ich inständig, nächstes Jahr im November wieder nach Köln in die große Arena pilgern zu dürfen – und wieder einige unserer Leser dort persönlich zu treffen!