Die erste Google Webmaster Conference Europe in Zürich

Was gibt es eigentlich Neues aus der Google Search Console? Welche Fallstricke birgt der Einsatz von JavaScript? Und warum ist KI nicht die Lösung für alles: Fragen, die Webmaster direkt an Google richten konnten an der Google Webmaster Conference am 11. Dezember 2019 in Zürich. Kerstin Reichert und Christine Spies haben sich dort für Sie umgesehen und allerlei Wissenswertes mit zurückgebracht.

Im neuen Gebäude unmittelbar am Zürcher Hauptbahnhof empfing John Mueller persönlich die Teilnehmer der Google Webmaster Conference – einer Veranstaltung, die Google in dieser Art zum ersten Mal in Europa durchführte. Die Teilnehmer erfuhren diverse Neuigkeiten von Google selbst und konnten auch direkt Fragen an die Googler richten. Darüber hinaus gab es drei Gastvorträge von Aleksej Dix, Tobias Willmann und Izzi Smith. Thematisch war es ein gut durchmischter Nachmittag und eine gute Gelegenheit, mit anderen Webmastern und SEOs ins Gespräch zu kommen.

Themen, die uns auch 2020 noch beschäftigen werden:

Google Search Console – Daniel Waisberg

Zum Auftakt der Konferenz gab Daniel Waisberg Einblicke in die Arbeit des Google-Search-Console-Teams, das in die vier Bereiche Search Analytics, Reporting, Testing und Alerting aufgeteilt ist. Das spannendste neueste Feature ist sicher der Page Speed Report. Leider gibt es aktuell noch keine Aussage dazu, ob weitere Reports aus der alten Google Search Console in die neuen Reports integriert werden oder ob die Google Search Console in naher Zukunft mehr als 16 Monate der historischen Daten zur Verfügung stellen wird. Auch ist aktuell nicht geplant, die Voice-Search-Anfragen in der Google Search Console abzubilden. Sicher ist auf jeden Fall, dass eine Verbesserung des Tools stets angestrebt wird. In welcher Form und in welchen neuen Reports sich das genau widerspiegeln wird, ist derzeit allerdings noch nicht konkret geplant.

In seinem Vortrag legte Daniel Waisberg den Schwerpunkt auf bereits vorhandene Neuerungen.
Hervorzuheben sind hier:

  • Reportingzeitraum über 16 Monate
  • Der neue „Geschwindigkeits-Report“, der unter anderem auf Daten des Chrome User Experience Reports (CrUX) basiert
  • Reports für Rich-Suchergebnisse wie Rezepte oder Sitelink-Suchfelder
  • Google Discover Insights (Wird dieser Report nicht in der Google Search Console angezeigt, so liegen Google derzeit noch nicht genügend Daten für die entsprechende Website vor, das heißt, es werden bisher nicht ausreichend viele Impressionen über Google Discover generiert.)
  • „Alert“-E-Mails, die monatlich an Webmaster versandt werden (Diese Funktion befindet sich derzeit noch in der Betaphase und ist bisher nicht für alle Google-Search-Console-Accounts ausgerollt.)
  • Die neue nach Themenbereichen filterbare „Benachrichtigungen“-Funktion. Diese ist besonders hilfreich, wenn bestehende Google-Search-Console-Konten neu übernommen werden, zum Beispiel im Rahmen eines Agenturwechsels oder beim Wechsel eines Mitarbeiters. Mithilfe dieser Berichte lassen sich historische Ereignisse besser nachvollziehen. 

Google Search News – John Mueller

John Mueller nahm die Besucher mit auf eine Zeitreise durch die Google-Suche. Er zeigte auf, was sich in den letzten Jahren verändert hat und was derzeitig Stand der Dinge ist. Hier eine Übersicht.

Google Search in a nutshell – Crawling und Indexierung

Bevor ein Dokument in der Google-Suche erscheinen kann, müssen zunächst Crawling und Indexierung stattfinden. Für Webmaster finden sich entsprechende Berichte in der Google Search Console, die dabei helfen, Crawling und Indexierung für die eigene Website zu überwachen. 

Auch JavaScript thematisierte John Muellers Vortrag. Immer mehr Websites verwenden JavaScript, sodass technisches SEO und das Verständnis für die Funktionsweise von JavaScript unumgänglich ist. Mithilfe der Google Search Console sollte die eigene Website daher regelmäßig auf Crawlbarkeit hin überprüft werden. Glauben, dass alles funktioniert, reicht nicht aus! Testen ist ein Muss. Und dabei müssen SEOs und Webentwickler zusammenarbeiten.

Des Weiteren sprach John über das Thema „Crawl-Budget“, was für die meisten Websites sicher unproblematisch sein sollte. Googles Absicht ist es nicht, alle Seiten zu indexieren, sondern lediglich solche mit entsprechender Relevanz für Suchanfragen. Demnach ergibt sich der Umfang des Crawl-Budgets aus dem Zusammenspiel der Nachfrage an die Webseite selbst (demand) in Bezug auf Googles Crawl-Kapazität (capacity) und der inhaltlichen Notwendigkeit der Webseite (necessity). Diese Indikatoren sind von SEOs positiv zu beeinflussen, indem relevante Inhalte erstellt werden, Seiten schnell laden und sich die Anzahl der URLs in Grenzen hält. Serverlogs geben Aufschluss darauf, welche URLs gecrawlt werden und wie häufig Serverfehler ausgeliefert werden.

Pagination mit rel=prev/rel=next

Zu Implementierungen, die nicht mehr unterstützt werden, nannte John Mueller die Seiten-Pagination mit der Auszeichnung rel=prev/rel=next. Sofern die entsprechenden Seiten intern miteinander verlinkt sind, können sie von Google ohnehin erfasst werden. Parameter-URLs sollten dabei jedoch vermieden werden. Lokale Crawler wie Screaming Frog und Sitebulb können zum Testen genutzt werden.

Optimierung für die Google-Bildersuche

Um in der Google-Suche auch mit Bildern zu erscheinen, sollten diese von hoher Qualität sein und mit dem „img“-Tag ausgezeichnet werden. Wie allgemein für Websites empfehlenswert, sollten auch Bilder responsive sein und sich entsprechend der jeweiligen Bildschirmgröße anpassen. Weitere Elemente, wie das Alt-Attribut, Bildüber- sowie ‑unterschriften und sprechende Dateinamen, helfen Google, Bilder inhaltlich besser zuzuordnen. Eine prominente Platzierung innerhalb des Seiteninhalts ist ebenfalls empfehlenswert. 

Sitespeed

Zur Analyse und Optimierung von Ladezeiten stehen zahlreiche Tools mit vielen Metriken zur Verfügung, was eine Auswertung nicht unbedingt leicht macht. Nichtsdestotrotz ist die Ladezeit enorm wichtig und sollte bereits bei der Entwicklung einer Website berücksichtigt werden (lab data). Hierfür bieten sich LightHouse, WebPageTest.org, PageSpeed Insights und andere Tools an. In der Live-Umgebung sollten Nutzerstatistiken berücksichtigt werden. Hierzu kann der Chrome User Experience Report (CrUX) in der Google Search Console genutzt werden (field data). Für das Ranking verwendet Google eine Kombination aus lab und field data.   

Änderungen in der Darstellung der Google-Suche 

Innerhalb der Google-Suche selbst gab es in der Funktionsweise und Darstellung ein paar Neuerungen.

So werden nun die Suchoperatoren „link:“ und „info:“ nicht länger unterstützt, dafür erscheinen nun Favicons der entsprechenden Website als Teil des Suchergebnisses. Die Search Analytics OneBox, die zum eingegebenen Suchbegriff Statistiken aus der Google Search Console anzeigt, wurde neu eingeführt. Die erweiterte Darstellung von Google Discover (ehemals Google Feed) auf der Such-Startseite bietet SEOs eine weitere Möglichkeit, ins Blickfeld von Google-Nutzern zu geraten, noch bevor diese eine Suchanfrage getätigt haben.

BERT-Update

Auch wenn in diesem Kontext viel von KI oder Machine Learning die Rede ist, beschreibt Google die Neuerung nüchtern als Maßnahme, um Webseiten und Suchanfragen schlichtweg besser zu verstehen. Auch wurde entwarnt, dass es Abstrafungen durch das Update gebe oder dass punktuelle Handlungsanweisungen zu beachten seien. Aus englischsprachigen Textdaten kann Google inzwischen deutlich besser als noch vor wenigen Jahren Entitäten extrahieren und thematische Zusammenhänge erkennen. Aktuell wird dies sichtbar, wenn für englischsprachige Suchanfragen unterschiedliche und dennoch thematisch zusammenhängende Begriffskombinationen zu identischen Suchergebnissen führen. Für alle anderen Sprachen beschränkt sich die Wirkung des BERT-Updates aktuell nur auf die Featured Snippets. Der Optimierungstipp lautet schlicht: „Make awesome sites, write naturally.”

m-Domains

Seit Sommer 2019 hat Google auch im deutschsprachigen Raum das Crawling vieler Webseiten auf den „Googlebot Smartphone” umgestellt. Eine Anpassung seitens Google, die dazu führt, dass zahlreiche m-Domains in der Desktop-Suche erscheinen. Was anfangs noch als Testmodus durch Google interpretiert wurde, muss aktuell als fortwährender Zustand akzeptiert werden. Google empfiehlt daher, endgültig auf eine Single-URL-Lösung umzusteigen.

AMP (Accelerated Mobile Pages)

Eine kleine Umfrage im Publikum zeigte deutlich, dass nur wenige Anwesende das Framework der beschleunigten Mobilseiten als hilfreich einschätzen. Eine Wahrnehmung, die Google offensichtlich auch schon seit Längerem nicht entgangen ist. Die Empfehlung zu AMP fällt hier überraschend defensiv aus, wenn dazu geraten wird, das Framework nur dann einzusetzen, wenn es auch wirklich Sinn ergibt. Ein Ranking-Boost ist allein durch den Einsatz des Frameworks nicht zu erwarten.

Fazit des Vortrags: Erstellt geniale Inhalte und macht diese für Website-Besucher verfügbar. Die Google Quality Rater Guidelines sind dein Freund. 

"Make awesome content (only the best!) and prove it to your users. Great content remains a good investment." - John Mueller

Neben Google waren im Rahmen der Lightning Talks aus der Webmaster-Community die drei Gast-Speaker Aleksej Dix, Tobias Willmann und Izzi Smith vor Ort, die zu verschiedenen Themen ihr Wissen teilten.

Server-seitiges Rendering mit Vue.js – Aleksej Dix

Seit Google Inhalte aus JavaScript-basierten Frameworks wie Angular.js, React.js, oder Vue.js verarbeiten kann, gibt es immer mehr Webseiten, die diese Technologie einsetzen. Zu deren Vorteilen gehört es, dass sie schnelle Seitenladezeiten leisten oder mitunter in einer Single-Page-Applikation (HTML-Seite, die Inhalte client- und serverseitig dynamisch nachlädt) sogar Inhalte offline genutzt werden können. Hier ist Vorsicht geboten. Auch wenn Google in den letzten Jahren beim Einsatz von React.js die Verwendung von #-URLs empfahl, wird hiervon inzwischen deutlichst abgeraten.

Wie ein JavaScript-Framework SEO-konform umgesetzt werden könnte, zeigte Aleksej Dix in seinem Vortrag. Er setzt Vue.js in Kombination mit Nuxt.js ein, wodurch eine Webseite suchmaschinenfreundlich serverseitig gerendert werden und ebenso suchmaschinenfreundliche URLs generieren kann. Im Zusammenspiel von Vue.js und Nuxt.js werden Inhalte sowohl server- als auch clientseitig gerendert, sodass einzelne Seiteninhalte nach Bedarf geladen werden können – was den initialen Seitenaufruf massiv beschleunigen kann. Eine interessante Vorgehensweise, welche auch Martin Splitt in seinem Vortrag zum Thema JavaScript erwähnte. 

News SEO – Tobias Willmann

Obwohl das Thema AMP recht defensiv in den Nachmittag gestartet war, konnte Tobias Willmann dennoch eine Erfolgsgeschichte hierzu zum Besten geben. Als SEO-Verantwortlicher bei der Schweizer Boulevard-Tageszeitung „Blick“ zeigte er auf, wie mit AMP die organischen Zugriffe des Portals gesteigert werden konnten, ohne dass Zugriffe der mobilen Standard-URLs verloren gingen. Zudem gab er Einblick, wie bei der Redaktion von „Blick“ SEO-Daten im journalistischen Tagesgeschäft verarbeitet werden. So hilft beispielsweise das Datenset aus Google Trends, wichtige Themenhöhepunkt im saisonalen Wechsel frühzeitig zu erkennen, neue Artikel zu erstellen oder alte zu recyceln. Natürlich helfen auch im News-Kontext strukturierte Daten, um im Google Discover relevante Suchergebnisse zu generieren.

Insgesamt ist es wichtig, die richtigen Tools zur richtigen Zeit einzusetzen, da Tageszeitungen natürlich besonders zu aktuellen Themen berichten. Das Tool Newsdashboard hilft dabei, zeitnah beim Tagesgeschehen Durchblick zu behalten. Die tägliche Auswertung kann beispielsweise mit Google Search Console erfolgen, Google Analytics bietet Insights in Echtzeit. Ranking-Tools wie Sistrix und Searchmetrics unterstützen dabei, langfristige Auswertungen zu erhalten und Ranking-Trends aufzuzeigen.

Eine weitere wichtige Erkenntnis ist: Print ist nicht online beziehungsweise Online-Texte müssen separat optimiert werden. Insbesondere müssen Beitragstitel angepasst und optimiert werden. Ein Beispiel hierfür war ein Beitrag zum neuen rosafarbenen Kitkat-Riegel mit Beerengeschmack. 

Der Print-Titel lautete: Das braune Stängeli gibts jetzt in Rosa, was für Suchmaschinen sehr schwer deutbar ist. Der Online-Titel wurde angepasst zu: Kitkat gibt es neu in Rosa – Nestlé lanciert Ruby-Schokolade. Des Weiteren können Seiten optimiert werden, indem sie nicht nur das jeweilige Thema aus aktueller Sicht behandeln, sondern mit Evergreen-Content erweitert werden. So lassen sich Themen umfangreich behandeln und können, sofern es sich je nach Saisonalität anbietet, neu genutzt werden. Eine abschließende Empfehlung zum Vortrag war: stets am Ball zu bleiben, Neues auszuprobieren und neue Formate zu testen wie beispielsweise AMP Stories. 

Featured Snippets – Izzi Smith

Glücklicherweise konnte Izzi Smith für einen ausgefallenen Redner einspringen und ihre neuesten Überlegungen zu Featured Snippets darlegen. Hier stieg sie mit kontroversen Einschätzungen zur One-Click-Situation ein, wenn Suchmaschinen noch mehr Möglichkeiten bekämen, systematisch Daten aus Webseiten zu extrahieren und zu nutzen. Doch überwiegen ihrer Meinung nach die Vorteile, da die eigene Marke durch diese Art von Suchergebnissen besonders prominent hervorgehoben wird, der erste Platz vor Wettbewerbern genutzt werden kann und eine besondere Vertrauenswürdigkeit der eigenen Webseite durch ein solches Suchergebnis damit in Verbindung gebracht wird.

Auch räumte sie mit dem Missverständnis auf, dass es reicht, einfach nur die Wettbewerber zu kopieren und semantische Auszeichnungen zu benutzen. Um Featured Snippets zu bekommen, muss die Webseite den bestmöglichen Inhalt zur gegebenen Suchanfrage zur Verfügung stellen. Hier ist jeder Webseiten-Betreiber gefordert, kreativ die beste Antwort innerhalb der jeweiligen SERPs zu geben. Ein allgemeingültiges Patentrezept lässt sich hier nicht geben. In wenigen Worten vielleicht nur als „be awesome”.

Laut Izzi werden folgende Annahmen häufig (falscherweise) getroffen, die sie widerlegt.

Automatischer Anspruch auf Featured Snippets (FSE – Featured Snippet Entitlement)
Bereits gut rankende Seiten und eine starke Marke führen nicht automatisch zu Featured Snippets. Ein automatisches Anrecht auf Featured Snippets gibt es nicht.

Man benötigt lediglich gute Inhalte
Großartige, relevante Inhalte sind natürlich die Voraussetzung, garantieren aber dennoch nicht automatisch ein Featured Snippet.

Schema Markup muss implementiert sein
Für fast alle Rich-Result-Ergebnisse in der Google-Suche ist das in der Tat richtig. Für Featured Snippets ist dies aber nicht zwingend der Fall. Das Schema Markup ist demnach nicht notwendig – es ist allerdings sicher auch nicht hinderlich. 

Es ist ausreichend, besser zu sein als der Wettbewerb
„Wir haben kopiert, was unsere Wettbewerber machen, aber es hat nichts gebracht." Nein. So nicht bitte. Man muss sich schon etwas mehr bemühen – laut Izzi heißt das: „You have to be AWESOME."

Ihre Empfehlung zur Optimierung für Featured Snippets fasst Izzi folgendermaßen zusammen:

„Sei eine gut strukturierte, ansprechende und zufriedenstellende Ressource mit relevanter Autorität und hoher Erreichbarkeit (barrierefrei).”

Im Anschluss ging sie tiefer auf die einzelnen Elemente ihrer Aussage ein.
Gut strukturiert

  • Inhalte müssen für Suchmaschinen-Bots wie für Besucher gut aufbereitet sein.
  • Semantisches HTML muss durchweg Verwendung finden.
  • Inhalten sollte Kontext mithilfe von Schema Markup verliehen werden.
  • Inhalte benötigen eine logische Hierarchie.
  • Anker-Links helfen bei der Navigation innerhalb einer Seite.

Ansprechend

  • Website-Besucher sollten stets finden, wonach sie suchen.
  • Die Benutzerfreundlichkeit und Barrierefreiheit der Website muss getestet werden, um beispielsweise Verweildauer und Konversionsraten zu erhöhen.
  • Dynamische Elemente können zur Personalisierung von Inhalten genutzt werden.

Zufriedenstellend

  • Inhalte sind relevant, zielgerichtet und entsprechen der Erwartung des Besuchers.
  • Inhalte werden langfristig auf eventuell verändertes Suchverhalten und veränderte Bedürfnis angepasst.
  • Inhaltszusammenfassungen sind hilfreich bei längeren Artikeln.

Ressource

  • Expertise steht hier im Vordergrund. Reine SEO-Landingpages sollten vermieden werden. 
  • Umfangreiche Ratgeber und Studien sind hilfreich. Auf die Qualität kommt es an. 

Autorität 

  • Expertenwissen ist gefragt.
  • Fachjargon ist zu vermeiden. 
  • Quellennachweise sollten bei Fachthemen angegeben werden.
  • Themen sollten objektiv behandelt werden. 

Erreichbarkeit

  • Inhalte müssen erreichbar und zugänglich, also nicht in dynamischen Elementen versteckt sein. 
  • Beschreibende Titel und Alt-Attribute für Bilder verwenden.

Webmaster Q&A – Daniel Waisberg, Martin Splitt, John Mueller

Die Webmaster-Q&A-Session war wie zu erwarten sehr interaktiv und die Zeit war fast zu knapp, um auf alle Fragen einzugehen. Besucher hatten im Anschluss jedoch, wie im Allgemeinen in den Pausen, die Möglichkeit, Fragen im Einzelgespräch zu stellen. Natürlich gab es auch Fragen, die nicht oder nur teilweise beantwortet werden konnten. 

Hier ein Auszug.

Q: Wie wird rel=”nofollow” in Zukunft von Google genutzt werden? 
A: Nach wie vor werden Nofollow-Links keinen PageRank vererben. Allerdings gibt es „andere Signale“ von Nofollow-Links, die anderweitig genutzt werden könnten (eine konkrete Aussage ist hier nicht möglich.) 

Q: Wird der derzeitige Zeitraum von 16 Monaten in Google Search Console erweitert werden.
A: Nein, dies ist bisher nicht geplant.

Q: Wird es eine Exportfunktion von Google Search Console für BigQuery geben.
A: Eventuell könnte darüber nachgedacht werden.

Q: Wird Voice Search in Zukunft separat in Google Search Console ausgewiesen werden? 
A: Nein. Eine Empfehlung für Voice Search ist, wie bei der Optimierung für Featured Snippets vorzugehen. 

Q: Gibt es Pläne, weitere Google Search Console APIs zur Verfügung zu stellen?
A: Die Nachfrage hierzu ist groß, allerdings bisher keine Priorität. Bestehende APIs, zu verändern, kann zudem Probleme verursachen. 

Q: Sind weitere Berichtsfunktionen für Google Discover geplant?
A: Nein. Auch nicht für Google-Analytics-Traffic-Daten. Discover-Bericht-URLs in Google Search Console können jedoch genutzt werden, um wichtige Themenbereiche ausfindig zu machen. 

Q: Ist Geotargeting von Inhalten anhand von IPs o. k.?
A: Content sollte nicht NUR anhand der IP-Adresse erreichbar sein. Der Googlebot crawlt lediglich mit Standort USA, was zur Folge haben kann, dass Inhalte, die nicht erreicht werden können, nicht gecrawlt werden. 

Q: Mehrsprachige Domains unter einer Domain zusammenzufügen, ist das gut oder schlecht?
A: Langfristig in den meisten Fällen gut, aber kurzfristig sind Schwankungen möglich. Hreflang sollte zum Einsatz kommen. Hierbei Googles Dokumentation beachten und Fehler vermeiden. Die Implementierung von hreflang kann kompliziert sein. 

Q: JavaScript für User-Tracking wird gecrawlt und verursacht Fehlermeldungen in der Google Search Console. Wie kann dies verhindert werden?
A: Das Crawling von bestimmten JavaScript-Dateien kann mithilfe der robots.txt-Datei blockiert werden. 

Q: Gibt es eine Empfehlung für die Länge von Page-Titeln und Meta-Descriptions?
A: Die Länge von Page-Title und Meta-Description kann (insbesondere je nach Gerätetyp) stark variieren und kann sich stets ändern. Es gibt daher hierfür keine Empfehlung seitens Google. 

Q: Weshalb nutzt Google Image Recognition nicht so weit, dass die Angabe des Alt-Attributs sich erübrigt?
A: Mehr Kontext für Bilder zu geben, ist wichtig. Das Alt-Attribut dient nicht nur Suchmaschinen, sondern auch anderen Anwendungen wie beispielsweise Screenreader. Allein um Websites barrierefrei zu gestalten, sollten Alt-Attribute verwendet werden.

JavaScript & SEO – Martin Splitt

Abschließend gab Martin Splitt einige Einblicke in Googles Crawling- und Indexierungs-Mechanik bei der Erfassung von JavaScript-Inhalten. Ein durchaus unterschätztes Signal ist hier die Angabe des Viewports. Je eindeutiger diese ist, desto schneller kann Google natürlich das Rendering durchführen, zumal inzwischen fast ausschließlich nur noch der „Googlebot Smartphone“ im Einsatz ist. Entsprechend einfach kann mit der Angabe <meta name="viewport" content="width=device-width, initial-scale=1.0"> sichergestellt werden, dass Google die korrekte Seitenansicht rendert und alle relevanten Inhalte auch findet.

Die Seitenladezeit ist im Kontext von JavaScript-Rendering zum wichtigsten Ausschlusskriterium einzelner Seiteninhalte geworden, die zu langsam laden. Entsprechend nutzt auch die Antwort auf die Frage „Wie schnell sollte meine Webseite geladen sein?” nichts. Denn lädt eine Webseite mehr als 30 Sekunden, ist dies auch für den User ein Problem. Um den Vorgang des Renderns von Webseiten effizient halten zu können, muss auch Google den Rendering-Vorgang zwangsläufig abbrechen, wenn er zu lange dauert. Ansonsten könnte das Crawling und Rendering aller weltweit verfügbaren Webseiten niemals skalierbar durchgeführt werden. Folglich fallen Seitenelemente konsequent weg, wenn der Rendering-Vorgang zu langsam ist.

Einfache Tipps helfen hier weiter: Lieber JavaScript-, HTML- und CSS-Ressourcen mit einfachen Webpack-Lösungen bündeln. Auch darf der beschleunigende Effekt von Caching durch Content-Hashs nicht unterschätzt werden, die identifizierbar machen, ob und wann ein Inhalt zum letzten Mal geändert wurde. So muss ein bereits im Cache vorhandenes Element nicht erneut vom Server abgerufen werden, was den Datenverkehr und die Seitenladezeit merkbar verbessert.

Die initiale Seitenladezeit lässt sich aber auch elegant durch Code-Splitting beschleunigen, indem der gesplittete Code nur nach Bedarf zur Verfügung gestellt wird. Ein Vorgang, der sich bestens mit Vue.js in Kombination mit Nuxt.js realisieren lässt, wie bereits Aleksej Dix in seinem Vortrag angedeutet hatte. Und nach allen Änderungen im Programm-Code darf nicht vergessen werden, regelmäßig ein „Tree-Shaking“ durchzuführen. Dabei werden ungenutzte Abhängigkeiten und Zeilen entfernt, der Code verschlankt und seine Ausführung deutlich beschleunigt.

Structured Data – Daniel Waisberg

Tipps zum Thema Auszeichnung von Inhalten mit strukturierten Daten gab es von Daniel Waisberg. Er verwies auf die entsprechenden Berichte in der Google Search Console, die eventuelle Fehlermeldungen anzeigen und dabei helfen, eingesetztes Markup zu analysieren. Mit Googles Rich-Results-Test-Tool, zu finden unter search.google.com/test/rich-results, lassen sich Implementierungen entweder anhand einer Live-URL oder bereits vor der Implementierung durch das Einfügen des entsprechenden Code-Snippets überprüfen. Hier sind ebenfalls Hinweise zu finden, weshalb ein bestimmtes Markup eventuell nicht für die Google-Suche geeignet ist und welche Fehler zunächst behoben werden müssen. Unabhängig von der Anwendung strukturierter Daten empfiehlt Daniel Waisberg den Einsatz der Google Search Console und zeigte verschiedene Berichte und Anwendungsbereiche, die insbesondere die Website-Performance im Hinblick auf Trends, Wachstumschancen und Besucher hin analysieren. 

Fazit

Alles in allem zwar naheliegende, doch häufig vergessene SEO-Basics, die es zu berücksichtigen gilt. Sinnbildlich hierfür steht vielleicht die Zuschauerfrage, ob mit Googles KI-Fähigkeiten die Befüllung des Alt-Attributs überhaupt noch wichtig sei. Hier war die verneinende Antwort ungewohnt streng, da das Alt-Attribut eben nicht nur einen reinen SEO-Nutzen, sondern in erster Linie die Barrierefreiheit der Website gewährleisten soll. Eine der wichtigsten aller Antworten an diesem Nachmittag, denn die Tätigkeit der Webmaster sollte nicht ausschließlich als Suchmaschinen-Optimierung gedacht werden, sondern besser als Webseiten-Optimierung verstanden werden und in erster Linie den Webseiten-Nutzern dienen.
Wer gerne noch weitere Eindrücke zur Konferenz möchte, findet diese auf www.twitter.com unter den Hashtags #WMCZRH und #WMConfDACH. Die anwesenden Googler und Vortragenden sind unter den nachstehenden Twitternamen zu finden. Folgen lohnt sich.
Googler: John Mueller – @JohnMu, Martin Splitt – @g33konaut, Daniel Waisberg – @danielwaisberg, Lizzi Harvey – @LizziHarvey, Gary Illyes – @methode 
Webmaster-Community-Vortragende: Aleksej Dix – @aleksejdix, Tobias Willmann – @tobias_willmann, Izzi Smith – @izzionfire
Um über künftige Google-Webmaster-Konferenzen auf dem Laufenden zu sein, empfiehlt sich ein Blick auf events.withgoogle.com/wmc/.