Nr. 13: Die SEO Campixx 2021 als Hybrid

Mario Fischer
Mario Fischer

Mario Fischer ist Herausgeber und Chefredakteur der Website Boosting und seit der ersten Stunde des Webs von Optimierungsmöglichkeiten fasziniert. Er berät namhafte Unternehmen aller Größen und Branchen und lehrt im neu gegründeten Studiengang E-Commerce an der Hochschule für angewandte Wissenschaften in Würzburg.

Mehr von diesem AutorArtikel als PDF laden

So langsam kommt die Konferenzszene wieder in Schwung, wenn auch meist mit einer reduzierten Anzahl an Teilnehmenden und einer gleichzeitigen Übertragung von Inhalten an Zuhausegebliebene. Neben den fachlichen Inputs in den über 70 Vorträgen in sieben parallelen Slots war es erfrischend und inspirierend, endlich wieder mit Small und Big Talk mit netten und aufgeschlossenen Expertinnen und Experten sprechen zu können. Traditionell bietet die SEO Campixx hier durch den lockeren und nicht so gedrängten Zeitplan genügend Freiraum. Das tut gut und man muss nicht von Slot zu Slot hetzen, weil nur fünf oder zehn Minuten bleiben. So können sich Fachgespräche entwickeln, neue Bekanntschaften geschlossen werden oder man tauscht einfach nur Erfahrungen aus. Nach dem pandemiebedingten Abbruch im letzten Jahr und der Verschiebung vom März trafen sich in Berlin wieder viele SEO-Pilger zum Know-how-Austausch.

Leider musste die (Un-)Konferenz in den August und damit in die Urlaubszeit verschoben werden. Daher spürte man auch ein wenig die Abwesenheit einiger Branchengrößen, aber wegen Corona und anderer stark einschränkender Umstände blieb dem Veranstalter Marco Janck schweren Herzens kein anderes Zeitfenster übrig. Auch das traditionell wuchtige Rahmenprogramm kam daher dieses Jahr etwas zu kurz. Die meisten Konferenzlinge dürften das aber eher weniger vermisst haben, weil diesmal umso mehr Zeit für persönliche und auch tiefer gehende Gespräche blieb.     

Live aus Zürich: Die Core Web Vitals

Der bekannte Googler Martin Splitt wurde live aus Zürich zugeschaltet und brachte alle Zuhörer auf den neuesten Stand in Sachen Core Web Vitals. Nach wie vor arbeitet Google an dem Problem, das Thema „Qualität“ und Userempfinden in Zahlen umzumünzen. „It´s really hard to put a number to“, meinte Splitt erklärend. Heute ist man allerdings schon sehr viel weiter also noch zu Zeiten, als Metriken wie TTFB (Time to First Byte) verwendet wurden. „Wo stoppt man die Uhr – vor allem bei dynamischen bzw. interaktiven Seiten?“, fragte Splitt. Entweder sind die Metriken zu grob oder zu empfindlich oder sie geben nicht die wirkliche Empfindung des Users wieder. Die zuständigen Teams müssen die Ziele (moving goals) immer wieder anpassen. Und die Lücke zwischen den sog. Lab-Data (errechneten Daten aufgrund theoretischer Werte) und den sog. Field-Data (echte über den Chrome-Browser gemessene Werte von Besuchern) klafft in einigen Fällen durchaus deutlich auseinander. Die Abfrage der Metriken ist mittlerweile über mehrere Quellen möglich, erläuterte Splitt und zählte Lighthouse, PageSpeed Insight, die Search Console, webpagetest.org und JavaScript APIs auf.  

Splitt empfahl, sich die einzelnen Metriken jeweils immer genau anzusehen. Ein Gesamtscore von „nur“ 50 kann durchaus durch einzelne Ausreißer auf bestimmten Seiten verzerrt werden. Ebenso, wenn die Werte gerade an der Grenze zur nächsten Stufe (grün, orange, rot) liegen. Wichtig ist, Mobile, Desktop und ggf. AMP umfassend zu testen und damit zu lernen, wo für die eigenen Seiten die entscheidenden Hebel liegen. Ein Teil lässt sich durchaus automatisieren. Auch Splitt wies darauf hin, dass die Werte immer wieder schwanken. Hier würde helfen, in die Vergangenheit bzw. auf die historischen Daten zu schauen. Das hilft beim Erkennen, ob eine Veränderung aufgrund „natürlicher“ Messschwankungen nur „noisy“ ist oder ob sie essenziell ist, d. h., über die übliche Schwankungsbreite der Domain hinausgeht. Dann besteht Handlungsbedarf, sofern die Bewegung hin zum Schlechteren tendiert. Der Lighthouse-Score ist laut Splitt nur ein wirklich sehr grober Anhaltspunkt. Bei Schwankungen von z. B. 55 auf 50 müsse man sich keine Gedanken machen. Zwischen 30 und 90 wäre allerdings schon ein bedeutsamer Unterschied.    

Das neue Rankingsignal ist seit Mai dieses Jahres bei Google live im Einsatz. Mittlerweile braucht man laut Google auch kein AMP mehr verwenden, um in die Top-Storys bei Google Discover zu kommen – vorausgesetzt, der Speed stimmt.

Was wird aus SEO?

In einer Podiumsdiskussion versuchte Marco Janck sich der Frage zu nähern, wo sich SEO in den nächsten Jahren hinbewegen wird.

Olaf Kopp: Heute brauchen SEOs ganz andere Skills, als sie in zehn Jahren brauchen werden. SEO wird aber von der Bedeutung nicht schwächer und wird hauptverantwortlich für den Sucherfolg bleiben. Anke Probst stimmte dem zu. Nach ihrer Meinung können sich die Inhalte zum Teil signifikant ändern, aber das Label SEO bleibt trotzdem bestehen. Bewerber sollten sich flexibel zeigen und das auch sein, das Einhalten von Komfortzonen wird selten möglich sein. Mario Fischer wies darauf hin, dass sich nach seiner Erfahrung die Motivation bei den Lernenden über die Jahre hinweg schon spürbar abgeschwächt hätte. Das Kernproblem bei staatlichen Hochschulausbildungen ist seiner Ansicht nach in dem sorgfältigen, aber für die neue Geschwindigkeit zu trägen Einstellungsprozess für Lehrende zu sehen. Die staatlich gewollte Gleichbezahlung aller Professorinnen und Professoren, unabhängig von der wirtschaftlichen Attraktivität, macht es schwer, geeignete qualifizierte Bewerbungen aus der Praxis zu bekommen. Wer in modernen Digitalunternehmen eine führende Stelle innehat, überlegt es sich dreimal, ob sie oder er für einen sehr viel geringeren Prozentsatz davon in die Lehre wechselt. Auch das Rekrutieren von Praktikern, die einzelne Veranstaltungen übernehmen können, wird so schwieriger. Wenn niemand da ist, der die Qualität eines Lehrbeauftragten wirklich beurteilen kann, bleibt nur, jeden zu nehmen, der Online-Marketing oder SEO auf der Visitenkarte stehen hat. Ob das für die Hochschulausbildung in den wichtigen Zukunftsmärkten ausreichen wird, müsse sich zeigen. Die Ausbildung in den Unternehmen ist oft auch schwierig. Wenn dort unfertiges oder gar veraltetes Wissen vorhanden ist, wird das intern immer und immer wieder weitergegeben.

Anke Probst betonte nochmals, dass SEO im weitesten Sinne sich ständig wandelt und sich die Mitarbeiter und Unternehmen auch entsprechend flexibel auf solche Änderungen einstellen müssen. Die Schnittstellen zu anderen Abteilungen werden immer wichtiger und müssen kommunikativ auf dem neuesten Stand gehalten werden. Die Verzahnung muss in Zukunft (noch) intensiver gelebt werden. SEO muss sich aber auch noch mehr in die „üblichen“ betrieblichen Abläufe einpassen.     

Klare Pfade: Xpath

Sebastian Adler erklärte, was ein Xpath ist und wie man ihn für SEO-Zwecke einsetzen kann. Im Prinzip ist der Xpath die Adresse eines einzelnen Teils eines HMTL-Dokuments. Die URL selbst stellt die Adresse dar, wo ein Dokument zu finden ist im Web, und der Xpath zeigt die genaue Adresse, mit der man eine Information im sog. DOM, dem Objektbaum des Dokuments, ansprechen kann. Stellt man sich ein Worddokument vor, bei dem vereinfacht erklärt jeder Satz und jedes Objekt eine eigene Gliederungsnummer hätte, könnte man mit dem Dateinamen (wo liegt die Datei) und dem Gliederungspunkt (wo im Dokument liegt das Objekt, das man haben möchte) eben nur dieses eine Objekt „herauskopieren“. Nichts anderes macht man mit dem Xpath. Er stellt quasi die Wegbeschreibung zu einem gesuchten Element dar. Da der Xpath Groß- und Kleinschreibung unterscheidet, liegt hier manchmal die erste Stolperfalle bei der Anwendung. <div> ist eben nicht gleich <Div> und so empfahl Adler dringend, alles jeweils sauber zu testen, bevor man großflächig Daten einsammeln möchte.

Typische Anwendungen für SEO wären Fragen wie: Was steht im Title, welche Bilder gibt es auf einer Seite, welche externen Links gehen von einer Seite weg, wann wurde der Beitrag publiziert und einige andere mehr. So liefert zum Beispiel der Xpath „//title“ oder „//H1“ zusammen mit der URL eines HTML-Dokuments alle Title- und H1-Einträge zurück. Für den Chrome-Browser gibt es das kostenlose Add-in „Xpather“, für Firefox „Try Xpath“, mit denen man gut testen kann, ob man die richtigen Adressen ermittelt hat. Toolgestützt, etwa via SEO-Tools für Excel, Google Spreadsheets oder den Screaming Frog kann man beim Crawlen von Dokumenten unter Angabe es Xpath gleichzeitig ohne Zusatzaufwand die entsprechenden Informationen mit wegschreiben. Natürlich lassen sich damit auch Preise, Verfügbarkeiten, die Anzahl Bewertungssterne etc. adressieren.

Sebastian Adler zeigte einige praktikable Beispiele, die relativ leicht umsetzbar sind und mit denen man via Xpath an Daten bzw. Erkenntnisse kommen kann. Eines der Beispiele bezog sich auf Featured Snippets in den Google Suchergebnissen. Im konkreten Fall ging es darum, den Text von Featured Snippets für verschiedene Suchbegriffe zu extrahieren. Dazu sucht man im Quelltext der Suchergebnisseite von Google das Element, das den Textinhalt trägt:

<div>
<div> hier steht viel Zeug (u.a. das Bild)</div>
<div class="mod"> Featured Snippet Text</div>
<div class="g">Title + URL mit Link</div>
</div>

Über den Xpath

//*[@class='mod']/..

und die zugehörige URL wie z. B. www.google.de/search?q="Suchwort"&hl=de lässt sich dann eine automatische Abfrage zusammenbauen. Statt „Suchwort“ muss natürlich das jeweilige Keyword verwendet werden.

So erzeugt z. B. www.google.de/search?q="geldmarktzins"&hl=de eine Suchergebnisseite mit einem Featured Snippet, wie in Abbildung 7 zu sehen ist. Den Text „Der Geldmarktzins ist der Zins…“ kann man dann mit dem Xpath //*[@class='mod']/.. extrahieren. Besonders leicht lässt sich das dann z. B. mit den SEO Tools für Excel lösen. Man hinterlegt in der Spalte A alle Keywords in Zeilen und fügt diese dann über eine Formel rechts daneben in Spalte B in die Google-Such-URL ein bzw. „baut diese zusammen“. Das sieht dann z. B, so aus:

https://www.google.de/search?q="&A1&"&hl=de

Erzeugt wird durch diese Formel die vorherige URL www.google.de/search?q="geldmarktzins"&hl=de. In der Spalte daneben an den Xpath ein und über das automatische Ausfüllen nach unten über alle befüllten Zeilen wird das Abholen aller Daten ausgelöst. Allerdings sollte man hier nicht zu viele Abfragen auf einmal machen, damit Google den (eigenen) Client nicht kurzzeitig sperrt.

Adlers besonderer Tipp galt der Dokumentation. Man solle lieber ausführlicher als zu knapp dokumentieren, was man mit einem oder mehreren Xpath-Anweisungen beabsichtigt hat. Das hilft später enorm bei erneuter Verwendung.  

Advanced Learnings: Backlinks im Casinobereich

Backlinks auf Google-konforme Art und Weise für den Gambling-Bereich zu generieren, gehört sicherlich mittlerweile zu den sehr anspruchsvollen Aufgaben im SEO. Arne Harkensee ließ die Teilnehmer an seinen Erfahrungen von über 15.000 Links aus den letzten vier Jahren teilhaben. Seine erste Empfehlung lautete: „Kommunikation ist King!“ Eine Standardansprache nach Schema F funktioniert schon lange nicht mehr. Wie man potenzielle Linkgeber anspricht, die Tonalität und natürlich auch der Kanal dafür, ist entscheidend für den späteren Erfolg. Unbedingt vermeiden sollte man Montage und Freitage, das sei ein „Big No“, so der Referent. An diesen Tagen haben die meisten Verantwortlichen andere Dinge zu tun und daher solle man sich auf Di–Do für die Kontaktaufnahme konzentrieren. Wichtig sei dabei, die Empfänger zu kennen bzw. im Vorfeld über sie zu recherchieren, ebenso müsse man die Sprache entsprechend anpassen. Die Zeiten von Massenmails sind definitiv vorbei. Bei dem sensiblen Thema „Casino“ verbiete es sich praktisch von selbst, gleich mit der Tür ins Haus zu fallen. Bevor man zu viel Zeit in die Kontaktaufnahme investiere, helfe ein Blick in die entsprechenden SEO-Tools, ob es sich überhaupt lohne, von einer Seite einen Backlink zu bekommen. Dabei könne sogar helfen, sich die Verzeichnisse genauer anzusehen, die ja bekanntlich durchaus völlig unterschiedlichen Traffic haben können. Es sei bei Weitem nicht egal, von wo genau man einen Link gesetzt bekomme.

Entscheidend für die Überzeugungsarbeit sei natürlich die Kreativität. Kein seriöses Medium werde wohl direkt auf eine Seite verlinken, die für Casinos wirbt. Hier gelte es, Content zu finden bzw. zu erzeugen, der für die anvisierten Linkgeber bzw. deren Besucher relevant und interessant sei. Harkensee nannte z. B. eine Aufstellung von Casino-Apps für iOS, wenn es um einen Apple-orientierten Blog gehe. Auf Finanzseiten interessiere man sich vielleicht für Kurse von bestimmten Casinos oder Städteportale/-blogs für alle Spielbanken in einer Stadt oder dem Umfeld. Dabei müsse man immer „linkable“ sein. Einen Link auf die Startseite werde man schwerlich bekommen. Aber auf einen Artikel im Info- oder Newsbereich à la „Die Geschichte der Spielautomaten in Deutschland“ oder „Wie wahrscheinlich ist es, eine Wette gegen/für XY zu gewinnen?“ Mit Content-Einheiten wie „8 Dinge, die Croupiers nerven“ könne man durchaus auch bei großen Zeitschriften im Online-Bereich erfolgreich sein, erklärte Harkensee. In solchen kompetitiven Umfeldern müsse man natürlich nicht nur seine Konkurrenz ständig im Auge haben, sondern auch das eigene Backlinkprofil.    

Das SEO Data Warehouse

Danny Zidaric beschäftigt sich hauptsächlich mit technischem SEO. Seiner Meinung nach sollten sich alle Unternehmen ab einer gewissen Größe Gedanken über den Aufbau eines Data Warehouse für SEO machen. Er selbst setzt bei seinem Arbeitgeber „Big Query“ ein, weil es schnell geht und eine gewisse Google-Affinität der nötigen Funktionen schon vorhanden ist. Sortiert man die in ein solches Datenwarenhaus (ständig) eingelieferten Informationen und verbindet sie, lassen sich mächtige Filter und vor allem Segmentierungen vornehmen. Bekanntlich ist die Berechnung des Durchschnitts der Tod jeder Erkenntnis durch Daten. Anomalien und Besonderheiten gehen als Rauschen unter, sind aber oftmals sehr wichtig für die Learnings über das Userverhalten oder die Struktur der eigenen Domain. Dabei gilt es, die akquirierten Daten von Anfang an richtig zu versionieren und mit Datum zu „stempeln“, damit bei späteren Änderungen auch ggf. hier bei Bedarf Teilsegmente ausgenommen werden können. Ebenso wichtig ist die Aufstellung verbindlicher Namenskonventionen. Ändert man später Dateinamen oder Spalten-/Zeilenadressen, kann das zu unvorhersehbaren Problemen bei älteren Skripts und Prozessen führen. Wer hier investiert, tut sich später sehr viel leichter, wenn die Datenstrukturen komplexer und umfassender werden. Als Tipp gab er den Teilnehmern noch mit auf den Weg, sich von der ersten Minute an vor allem auch aktiv um die Qualität aller eingehenden Daten zu kümmern. Jeder hier übersehene Bug, jeder Datenglitch kann später in der Verdichtung zu falschen Darstellungen von Sachverhalten und damit im schlimmsten Fall zu Fehlentscheidungen führen.   

Save the date

Die nächste SEO Campixx wird am 4. und 5. Juli 2022 erneut am Müggelsee in Berlin stattfinden. Der Veranstalter hat angekündigt, für nächstes Jahr einiges zu ändern. So wird etwa die Hälfte der Speaker vorab ausgewählt und die andere Hälfte wird als freies Barcamp gestaltet werden. Am ersten Tag soll dabei alles rund um Google Search und Vertrieb gehen und am zweiten und letzten Tag liegt der Focus auf alternativen Suchsystemen und Plattformen.  

Drei Tage davor läuft dann die Contentixx mit interessanten Themen zur Content-Produktion, Vertrieb und Marketing-Automation und zum Content Seeding. Wer also wissen möchte, was man in Sachen Text, Video, Podcast, Musik, Grafik und mehr machen kann, wie man den produzierten Content auch gut im Netz ins Rollen bringt und seine Vermarktungsaktivitäten optimaler und effizienter gestalten kann, sollte sich sicherlich auch diese Konferenztage näher ansehen. Wer frühzeitig bucht, kann sich saftige Rabatte bis zu 50 % sichern.