SEO Campixx renoviert und frisch gebügelt

Mario Fischer
Mario Fischer

Mario Fischer ist Herausgeber und Chefredakteur der Website Boosting und seit der ersten Stunde des Webs von Optimierungsmöglichkeiten fasziniert. Er berät namhafte Unternehmen aller Größen und Branchen und lehrt im neu gegründeten Studiengang E-Commerce an der Hochschule für angewandte Wissenschaften in Würzburg.

Mehr von diesem AutorArtikel als PDF laden

Wie alle Konferenzveranstalter hat Marco Janck auch mit der SEO Campixx in Berlin während der Pandemie eine schwere Zeit hinter sich. Erschwerend kam dazu, dass der Austragungsort der legendären SEO-Festspiele am Berliner Müggelsee die Coronazeit nicht überstanden hat und nicht mehr existiert. Mehr als zehn Jahre wurde dort „in der Nacht von Freitag auf Montag“ SEO-Wissen für jeden Anspruch vom Feinsten gefeiert und nicht nur gefühlt durch die Weitläufigkeit jeden Tag mehrere Kilometer zu Fuß zurückgelegt.

Die bange Frage für alle Insider war, ob es Marco gelingen würde, eine ebenbürtige Location als Nachfolgeinstanz zu finden. Achtung, Spoileralarm: Er hat. Das Van der Valk Eventhotel in Berlin/Brandenburg bietet über 1.000 Teilnehmerinnen und Teilnehmern Platz, hat einen riesigen Außenbereich, und Janck hatte wirklich alle Register gezogen, damit niemand der „alten Campixx“ nachtrauern muss. 80 Sessions und viele namhafte Speaker erschwerten die Auswahl ganz enorm. Website Boosting hat sich für Sie dort umgesehen und ein paar Highlight und Wissensperlen eingesammelt.

Die Begrüßungsshow von Marco Janck kann man durchaus als fulminant bezeichnen. Emotionale Bilder und emotionale Musik und eine gut erzählte Geschichte über den Weg bis hierhin. Und er wies darauf hin, dass sich nach seiner persönlichen Beobachtung einiges verändert hat beim SEO. So gäbe es seiner Einschätzung nach weniger Networking in der Branche, weniger „Spionage“ und mehr definierte Prozesse. Zudem tendieren Agenturen durch das Wachstum dazu, immer mehr Angestellte zu beschäftigen, darunter teils auch vormals Selbstständige. Durch die Zersplitterung verlöre SEO auch langsam seinen Namen sowie die Fantasie, meinte Janck. Er bemängelt auch, dass SEO immer weniger gutes Personal hätte, viele sind auf die Schnelle durch Auftragsdruck angelernt worden und haben weder den notwendigen Überblick noch eine genügend sorgfältige Schulungszeit hinter sich. Die schlimmsten Auswirkungen dieser Entwicklung sieht er darin, dass SEO seinen Ruf verlieren, immer mehr verbrannte Erde hinterlassen und immer mehr Arroganz hervorbringen würde. Viele Kunden winken schließlich unkritisch mit Geldbündeln. Man mag ihm als Veranstalter wegen eines möglichen Eigeninteresses die Aussage verzeihen, dass „man heute Angestellte fast zwingen muss, auf Konferenzen zu gehen“. Unrecht hat er sicherlich damit nicht, im Gegenteil. Er wünscht sich daher auch mehr Druck in der Ausbildung. Und auch mit dieser Meinung steht er wahrscheinlich alles andere als alleine da.  

„KMUs haben immer noch null Ahnung – aber: Wem sollen sie vertrauen?“, Marco Janck.

Screaming Frog

Wahrscheinlich gibt es niemanden mit ernsthaftem SEO-Interesse, der das berühmte Tool „Screaming Frog“ nicht kennt oder nicht zumindest davon gehört hat. Einer der Macher, Oliver Brett, schrieb sich in seinem Vortrag auf die Fahnen, keinen sogenannten sales pitch zu veranstalten. Dann verpackte der die vielen Funktionen, die im Lauf der Jahre dazugekommen sind, geschickt in eine Story über die einzelnen Versionen der Software. Am Ende war es eines der gelungensten sales pitches, weil es (fast) niemand bemerkt hatte. Wer auf besondere Tipps oder Tricks zum Frog gewartet hatte oder ein paar Insights auf kommende Funktionen, sah diese Erwartung allerdings nicht erfüllt. Brett erzählte viel über den Support, wie schnell die über die Jahre insgesamt 11.000 Tickets beantwortet oder gelöst werden oder welche Fragen anteilig aus welchen Ländern kommen. So wird knapp die Hälfte der Anfragen innerhalb von einer Stunde beantwortet. Das sind Werte, von denen sich viele Hotlines eine dicke Scheibe abschneiden könnten.

Linkbuilding ist tot – Linkbuilding ist nicht tot

Martin Brosy hatte verschiedene Agenturen und Freelancer getestet, die Backlinks verkaufen, und versuchte, einen kleinen Einblick in die Linkbuilding-Szene zu geben. Er gab sich überzeugt, dass Google seit etwa fünf Jahren einen deutlichen Sprung in der Beurteilung der Qualität von Backlinks gemacht hat.

Zitat: „Linkbuilding erlebt eine Renaissance“, Martin Brosy.

Noch nie hätte es so viele Linkmarktplätze gegeben wie heute, so Brosy. Und Backlinks werden ganz offen für jeden sichtbar zum Teil mit Preisen angeboten. Die Szene ist auch hier relativ gemischt, und so tummeln sich auf dieser lukrativen Wiese leider auch viele Blender und Minderleister. Erst vor Kurzem hat eine bekannte SEO-Expertin via Facebook beklagt, dass ihr Kunde von einer SEO-Agentur (offenbar sogar vom BVDW zertifiziert) 50 Backlinks gekauft hätte, diese sich aber weigert, bekannt zu geben, wo sie die Links gesetzt haben. Bisher zeige kein einziges Tool auch nur einen Link an, und auch kein einziger Klick kam von einer dieser angeblich existierenden Seiten. Brosy stellte dann auch infrage, ob Links auf Seiten, die kein Mensch besucht oder auf deren Links niemand klickt, überhaupt nur einen marginalen Wert für die verlinkte Seite haben. HTML-Seiten mit Links kann schließlich jeder ins Web stellen und damit „Links verkaufen“. Die Kunst ist ja, diese auch von Seiten zu bekommen, die in den Augen von Googles Algorithmen einen gewissen Wert haben.

Die Frechheit einiger Anbieter geht sogar so weit, dass man ganz offen als Zwischenhändler auftritt und mit unseriösen Geschäftspartnern arbeitet. Brosy berichtete von einem Fall, in dem das Geld für nicht gesetzte Links zurückverlangt wurde. Der Zwischenhändler antwortete „… immer noch blöde Sache. Also ich habe von denen ja auch kein Geld zurückbekommen, musste die/den aber zahlen. Deshalb alles blöd und Geld an dich zurückzahlen ist nicht.“

Seine Tipps für diejenigen, die Backlinks kaufen, lauten u. a.

  • Immer (Link-)Beispiele geben lassen, wie die Agentur arbeitet
  • Niemals im Voraus zahlen
  • Sorgfältig nachdenken; was zu billig ist, um wahr zu sein, ist meistens minderwertig oder Fake
  • Verschiedene Tools heranziehen zur Beurteilung der Domain-Kennzahlen von Linkgebern

Niels Dahnke ermahnte die Zuhörer in seinem Vortrag, öfter mal klar Schiff zu machen, was SEO angeht. Geld bzw. Budget zum Erststellen von Content ist oft in den Unternehmen da bzw. wurde reserviert. Leider vergessen viele, dass Content auch Aufwand bei der laufenden Pflege macht. Ebenso muss Content immer wieder mal auf Aktualität geprüft werden und ggf. müssen Teile auch wieder gelöscht oder mit anderem Content zusammengelegt werden. Das hat fast niemand eingeplant – daher unterbleibt dieser wichtige Schritt daher oft. Gezählt werden die „neuen“ Seiten mit Content: Sie finden entsprechende Anerkennung. Wer einen längerfristigen Abwärtstrend beim Ranking auf der eigenen Domain beobachtet, sollte daher möglichst schnell handeln. Und wer glaubt, solche Seiten wären doch schnell gelöscht, da steckt kein nennenswerter Aufwand dahinter, der täuscht sich gewaltig. Der Vorgang des Löschens selbst geht natürlich auf Knopfdruck. Aber die Planung, was und warum gelöscht werden muss, was in Teilen auf andere, gut passende Contentseiten übertragen werden kann und wie sich diese Seiten dann ggf. im Ranking verändern könnten sowie die Frage, was mit internen und externen Links auf die zu entfernenden Seiten passiert, hat es in sich.

Zitat: „Improve it or remove it“, Niels Dahnke.

Data Science ohne Code

Unser Herausgeber Mario Fischer beschloss den ersten Tag der SEO Campixx mit einer videounterstützten Anleitung, wie man das kostenlose Datentool KNIME einsetzt und wie einfach und transparent SEO-Daten-Analysen durchführbar sind. Nach ein wenigen Stunden Einführung kann man mit diesem Tool per Maus Funktionsboxen (sogenannte Nodes) auf die Arbeitsfläche ziehen und diese mit Datenfäden miteinander verbinden. Dann noch die speziellen Funktionen einer solchen Node aktivieren bzw. einstellen, und schon kann man das Ergebnis sehen. Diese explorative Vorgehensweise entspricht eigentlich genau dem Prozess einer guten SEO-Analyse – und ist immer gleich. Man hat eine Fragestellung wie z. B. „Was ist beim letzten Google Update genau mit unserem Ranking passiert, warum haben wir seither Einbußen?“ und überlegt, welche Daten für die Beantwortung braucht. In diesem Fall genügen oft bereits detaillierte Rankingdaten. Man holt sich also zwei Datensätze direkt aus der Google Search Console, einen wenige Tage vor dem Update und den zweiten einige Tage danach. Diese beiden CSV-Dateien zieht man nun einfach auf die Arbeitsfläche. Die richtige Node wählt KNIME automatisch aus. Mit wenigen Klick lässt sich nun filtern bzw. vergleichen, welche Keyword-Rankings abgestürzt oder ggf. auch gestiegen sind. So weit, so gut, das machen bereits viele Tools. Nun beginnt die eigentliche SEO-Arbeit: das Clustern. Ein Grund liegt darin, dass man nach Mustern suchen muss. Mit anderen Worten, was haben die abgestürzten Positionen ggf. gemeinsam? Sind es Verzeichnisse? Die Anzahl interner Links? Der Textumfang, Seiten mit Videos oder vielen/wenigen Bildern? Bestimmte Bereiche oder Themen der Site? Und so weiter. Mit KNIME lassen sich Cluster flexibel und einfach markieren, um sie gleich danach zu sortieren bzw. Anomalien zu finden.

„Das Arbeiten mit Rohdaten bringt viele Aha-Effekte und ist zudem recht einfach!“; Mario Fischer

Ebenso leicht lassen sich über Nodes die APIs (Datenschnittstellen) der SEO-Tools wie Ryte, Sistrix, Semrush, Audisto oder andere anzapfen und als Rohdaten selbst je nach Erkenntniszweck analysieren. So zeigte Fischer u. a., wie man innerhalb von Minuten eine praktikable (weil weitergebbare) Arbeitsliste für das sogenannte Mehrfachranking bzw. die schädliche Keyword-Kannibalisierung erstellen kann. Das alles muss man, so Fischer, jeweils nur einmal erstellen und kann es über Datenrefreshs immer wieder effizient und zeitsparend nutzen. KINME unterstützt und vereinfacht das Analysieren von Daten ganz enorm. Selbst kleine Auswertungen mit Machine Learning sind in wenigen Minuten aus fertigen Nodes erstellbar.   

State of Search

Er zählt zweifelsohne zu den Urgesteinen in der SEO-Branche und hatte 2001 unter „linkvendor.com“ schon die ersten SEO-Tools als Ergebnis seiner Diplomarbeit online (in Ausgabe #4 der Website Boosting gab es ein langes Interview mit Tober, einfach.st/mtinterview). Später gründete er dann Searchmetrics und professionalisierte alles unter einem Dach. Das Unternehmen zählt heute mit zu den größten Playern im Markt der Tools. Vor Kurzem kam es allerdings zum Bruch wegen Differenzen mit den Investoren. Seitdem kann sich Tober nach eigener Aussage beim Toolanbieter Semrush nun wieder voll und ganz der „SEO“ widmen. Auf der Konferenz zeigte er auch gleich einige sehr spannende Dateninsights, wie sie heute nur noch von großen SEO-Tool-Anbietern gemacht werden können, weil dort sehr viel und über die Google Search Console angereicherte Daten vorliegen. Tober hatte für 25 Mio. Keywords u. a. die Klickraten in den Suchergebnissen von Google ausgewertet und ist vor allem der Frage nachgegangen, ob und wie die Pandemie SEO bzw. das Suchverhalten geändert hat.

Der erste Schock kam bereits bei der sechsten Folie. Während die durchschnittliche Klickrate auf das erste Suchergebnis bei 38 % (Desktop 33 %) liegt, sofern keine ablenkenden anderen Informationen von Google eingeblendet werden, sinkt sie auf krasse 9 % (Desktop 6 %) ab, sobald „Instant Answers“ eingeblendet wird (Abbildung 6). Werden Featured Snippets eingeblendet, liegt die Klickrate für Platz 1 auf etwa 14 %, bei PLA-Einblendungen (Product Listing Ads) noch bei etwa 19 %. Bei der Interpretation der eigenen CTR in den Suchergebnissen sollte man derartige Abweichungen besser berücksichtigen. Weitere Ergebnisse sollen laut Tober noch in einer Studie nachgeliefert werden.

Interessant war ebenfalls zu sehen, dass die Anzahl neu rankender Domains von 2020 auf 2021 in den USA von 25 auf 34 % gestiegen ist (D von 13 % auf 16 %). Tober führte dies auf die Pandemie zurück. Viele Unternehmen hätten sich in dieser Zeit nun zwangsweise mehr auf ihre Onlinepräsenz konzentriert. Hinzu kommt, dass kleinere Unternehmen wohl nun auch davon überzeugt wurden, eine eigene Site haben zu müssen. Die Anzahl der rankenden URLs habe sich dagegen nicht verändert. 60 % aller Suchworte sind laut Tober mittlerweile „informational“, und nach Suchvolumen gerechnet entspricht das einem Anteil von 53,6 %. Das zeigt, wie sehr die Menschen mittlerweile das Web als ihre Quelle zur Informationssuche akzeptiert haben.

„Google schreibt mittlerweile fast zwei Drittel der Title um“; Marcus Tober

Tober zeigte weiterhin, dass der Anteil an den Titeln (Title), die Google in den Suchergebnissen umschreibt bzw. modifiziert, inzwischen bei über 62 % liegt. Das bedeutet im Umkehrschluss, dass nur knapp 38 % aller Title im Original bzw. so wie sie auf der Website hinterlegt wurden, auch genau so ausgespielt werden. Darunter fallen aber natürlich auch „unkritische“ Änderungen, wie z. B. dass Google den Domainnamen vorne oder hinten am Snippet ausspielt. Alles in allem aber könnte es durchaus ein Hinweis sein, dass Webmaster noch immer keine optimalen Title hinterlegen – sofern man unterstellt, dass Google umfassend testet und damit weiß, was die Besucher in den Suchergebnissen für eine Klickentscheidung brauchen.

Neben vielen anderen interessanten Ergebnissen verwies er darauf, dass die Google Updates im Lauf der letzten Zeit immer weniger gesamthaft Auswirkungen auf die Suchergebnisse haben. Das mag vielleicht auch daran liegen, dass, so Tober, mittlerweile im Mittel an jedem zweiten Tag Veränderungen beim Ranking gemessen werden können. Google ändert also laufend und ständig seine Algorithmen. Die einzelnen benannten Updates haben daher nicht mehr so viel Bedeutung wie früher, und viel davon wird auch kurz danach wieder zurückgenommen. Sein Tipp: Man muss mittlerweile seine Rankings aktiv verteidigen. Diese Strategie wäre deutlich besser, als ständig immer nur Neues ins Web zu klopfen.     

Und als Letztes ist es noch erwähnenswert, dass noch immer viele Websites den Core-Web-Vital-Test nicht bestehen. Nur 32 % aller mobilen URLs erreichen in den drei Kategorien ein „gut“. Probleme können z. B. eingebundene Objekte sein (YouTube blockiert z. B. im Mittel ganze 1,233 Sekunden, Freshchat über 2,5 Sekunden) oder auch durch die Wahl der (Shop-)Software oder eines Templates.

Stop the SEO Porn!

Markus Hövener erklärte, warum sich seiner Meinung nach halb Deutschland mit irrelevanten SEO-Maßnahmen beschäftigt. Das hätte zum einen oft mit (allzu pauschalen) Empfehlungen von einigen SEO-Tools zu tun oder z. B. vielleicht auch damit, dass man ein vierstündiges Seminar bei einer IHK gehört hat und anschließend versucht, den gehörten Unsinn dann umzusetzen. Ein Beispiel für solche „Nebelkerzen“ ist z. B. die Auswertung im Screaming Frog über Upper-/Lower-Case in URLs. Für SEO völlig irrelevant, aber man kann natürlich viel Zeit damit verbringen, das alles umzustellen. Aber auch Vorträge auf Konferenzen können ungewollt solche Nebelkerzen unter noch unerfahrenes Zuhörervolk werfen. Gerade sogenannte High-End-SEOs (O-Ton Hövener) sind manchmal erschreckend unscharf, und damit steigt auch das Risiko, missverstanden zu werden. Und mehrere Beispiele konnte man auch auf der Campixx beobachten. „Google berechnet keinen internen PageRank“, hieß es da auf einer Folie in einem Vortrag. Ja, wörtlich genommen ist das völlig korrekt, weil Google den PageRank aller Dokumente über das gesamte Web berechnet und nicht geklammert nach einer Domain. Trotzdem ist die Berechnung des internen PageRanks aus mehreren Gründen durchaus wichtig für SEO-Zwecke. So war die Aussage sicherlich nicht gemeint, dass eine derartige Berechnung unwichtig oder unnötig wäre – kann aber von einem Newcomer durchaus so verstanden bzw. fehlinterpretiert werden. Hier muss die Branche weiterhin an sich arbeiten, noch mehr auf Einsteiger und Basics zu achten – auch wenn gerade SEO-Basics für die Experten meist langweilig(er) sind, meinte Hövener. In den Unternehmen gibt es einfach noch immer zu wenig Personal mit genügend Erfahrung, die haben zwar Verantwortung, „wissen aber nichts“, erklärte er.