Die CAMPIXX 2024 – fka SEOCampixx

Mario Fischer
Mario Fischer

Mario Fischer ist Herausgeber und Chefredakteur der Website Boosting und seit der ersten Stunde des Webs von Optimierungsmöglichkeiten fasziniert. Er berät namhafte Unternehmen aller Größen und Branchen und lehrt im neu gegründeten Studiengang E-Commerce an der Hochschule für angewandte Wissenschaften in Würzburg.

Mehr von diesem Autor

Die altbekannte und mit die älteste SEO-Konferenz „SEOCampixx“ hat die ersten drei Buchstaben verloren und firmiert mittlerweile als CAMPIXX. Dies soll dem Umstand Rechnung tragen, dass Tech, AI, Seeding und Content-Marketing ebenso wichtig und untrennbar mit dem Thema SEO verbunden sind. Bei der mittlerweile 16. CAMPIXX ging es in sieben Räumen in 86 Sessions zur Sache. Die Slots wurden vom Veranstalter Marco Janck thematisch gut zusammengestellt, sodass fast immer genügend Sitzplätze vorhanden waren und vergleichsweise wenig „fear of missing out“ aufkam. Bei manchen Konferenzen ist man an allen Vorträgen, die parallel laufen, interessiert und im nächsten Slot ist gar keiner dabei, der passt. Dieses bekannte Feeling gab es in Berlin eher nicht. Die „Veteranen“ unter den Teilnehmern waren sich im Wesentlichen einig, dass man dem alten „Müggelsee“ zwar aus nostalgischen Gefühlen nachtrauert, der Konferenz die Professionalisierung und die neue Location aber ohne Zweifel guttun. Website Boosting war in Berlin-Brandenburg für Sie vor Ort und hat wie immer versucht, einige der für alle interessantesten Highlights und Erkenntnisse herauszupflücken.

Abbildung 1: Dieser Social-Media-Beitrag bringt es auf den Punkt: keine einzige Minute Langeweile! Abbildung 2: Veranstalter Marco Janck eröffnete die CAMPIXX 2024. Abbildung 3: Beccs, es/nims, nichtbinär/trans, hielt die erste Keynote zum Thema Gendern. Welche Reichweite hat „*innen“? Dieser und anderen Fragen ging Beccs nach – nach eigener Erklärung nichtbinär/trans und es/nims. Beccs war der Meinung: „Gendern [ist] zwar eine fundamentale Basis deutscher Grammatik … aber nicht von Algorithmen.“ Trotzdem lautete ein Fazit, dass männliche Bezeichnungen (wie zum Beispiel „Zahnarzt“) bei der Suchmaschinenoptimierung noch immer die höchste Reichweite haben, weibliche Formen dagegen Reichweite kosten würden. Das hat damit zu tun, dass danach weniger gesucht wird und Suchmaschinen noch immer den direkten Match zwischen Sucheingabe und Ergebnis bevorzugen. Auch die bekannten Sonderzeichen wie „:“ oder „*“ in Worten wie „Zahnärzt*Innen“ machen Probleme für diesen Match, wenn jemand eine Zahnärztin oder einen Zahnarzt sucht. Erschwerend kommt wohl hinzu, dass diese besonderen Schreibweisen eher ein deutsches Phänomen sind und man dies im Englischen nicht kennt. Ein „Visitor“ hat kein Geschlecht und macht daher sprachlich auch kein Anpassungsproblem. Vermutlich haben die US-gesteuerten Suchmaschinen das deutsche Spezialproblem noch nicht einmal auf dem Schirm. Zitat: „SEO ruiniert das Internet.“ Direkt aus New York kommend hielt die branchenbekannte SEO-Expertin Lily Ray eine weitere Keynote. Ihre Diagnose der allgemeinen Stimmungslage war, dass exzessive SEO das Internet „ruiniert“ hat. Mehr und mehr Unternehmen setzen gezielt Methoden und Kenntnisse ein, um alles, aber auch alles via Ranking zu Geld zu machen, egal wie nützlich der Content tatsächlich ist. Der Einsatz von KI verschärft dieses Problem beziehungsweise potenziert es sogar noch einmal. Daher müssen wir uns Gedanken machen, wie Google auf diese Flut reagieren wird und muss. Sie haben noch nie so viel Spam gesehen wie aktuell, so Ray. Man kann einen regelrechten „gold rush“ beobachten, bei dem jeder versucht, aus einem Kopfdruck via Affiliate-Links Geld zu machen. Da das nicht so effizient funktioniert, müssen die Millionen via Massenproduktion aus wenigen Cent pro URL generiert werden. Das führt zu einer unguten Entwicklung. Derzeit bringt Google offenbar selbst bei sogenannten YMYL („Your Money or Your Life“) plötzlich Diskussionsstränge aus Reddit als Ergebnis ans Licht. Die aufwendigen Prüfungen bei Gesundheitsthemen nach der fachlichen Autorität laufen ins Leere und die Diskussionsmeinung von Forenteilnehmern wird dem verwunderten Suchauge präsentiert, das im schlimmsten Fall alles glaubt, was da von Hinz und Kunz hinterlassen wurde. Abbildung 4: Was haben die abgestraften Sites laut einer Analyse von Lily Ray gemeinsam? (Quelle: Lily Ray NYC) Eine direkte und öffentliche Nachfrage von Ray bei Danny Sullivan von Google (Search Liaison) erbrachte die Antwort, dass das niemand manuell gemacht hätte und die Algorithmen das wohl als hilfreich einstufen würden. Immerhin wurde das Thema an das Search-Team zur Analyse weitergereicht. Gut so. Ihre wichtigsten Tipps am Ende waren • Build a real brand. • Diversify traffic sources. • Monitor brand sentiment and audience discussions in Reddit and Foren (USA). • Use caution when following SEO hacks and tricks that seem to good to be true. Abbildung 5: Warum bringt Google Foren bei YMYL-Themen? „Nothing is perfect“, sagt Google Hanns Kronenberg sprach über Re-Ranking. Er betreut unter anderem die Suchfunktion bei Chefkoch.de und gab interessante Einblicke in die Denke „auf der anderen Seite“, nämlich der, die passende Suchergebnisse präsentieren muss. Seit man dort Nutzersignale für das Re-Ranking verwendet, sind die Klickraten und die Zufriedenheit der Besucher deutlich gestiegen. Das dort verwendete System ähnelt dem von Google. Algorithmen finden zunächst relevante Treffer für das „erste“ Ranking. Mittels KI werden diese dann anhand von Nutzerinteraktionen zu den Top Ten umsortiert – daher der Begriff Re-Ranking. Eventuelle Schwächen der Algorithmen werden durch die Integration der Nutzerreaktionen ausgebügelt. Und die KI trainiert praktisch fortlaufend, was User mögen. Dadurch kann die Maschine lang-, aber auch kurzfristigen Trendänderungen folgen. Als Beispiel nannte er ein Rezept für die „Frankfurter Grüne Soße“. Das enthält weit über zehn Zutaten, die natürlich einzeln aufwendig zu beschaffen sind. Dies mochten die Suchenden offenbar nicht so gerne. Andere Rezepte mit kürzeren Zutatenlisten (vor allem fertigen Gewürzmischungen) wurden bevorzugt. Das Re-Ranking hat das lange Originalrezept folgerichtig benachteiligt. Zitat: „Die Nutzerreaktionen entscheiden am Ende über das Ranking.“ Hier ist man an einer entscheidenden Erkenntnis angelangt, so Kronenberg. Bei der Beobachtung eines nachlassenden Rankings würde man klassisch via SEO-Maßnahmen versuchen, das Dokument semantisch nachzuschärfen, zum Beispiel via WDF*IDF-Tools und mehr internen Backlinks mit passenden Ankertexten. Das würde im ersten Ranking-Modul zwar zu mehr Scoringpunkten führen, aber das Re-Ranking würde das Ergebnis trotzdem weiterhin abstrafen, weil es die Suchenden nicht mögen. Das „Ausführlichermachen“ hilft nichts gegen die nachfolgende Multiplikatorwirkung der KI-generierten Nutzersimulation. Hat man also das Nutzerinteresse nicht „wirklich“ verstanden, hilft auch keine SEO. Als konkretes Beispiel zeigte Kronenberg den Austausch eines Bilds für ein Spekulatius-Tiramisu, das bisher auf Platz drei gerankt hatte. Durch ein (KI-generiertes) deutlich besseres Bild (Abbildung 6 grün eingerahmt) stieg die Klickrate der Suchenden auf das Rezeptergebnis von vorher 27 % auf über 45 % deutlich an! Das registrierten die Systeme bei Google offenbar relativ schnell und keine 24 Stunden später stieg das Rezept nicht nur auf Platz eins bei den organischen Treffern, sondern erschien auch gleich als Erstes in der Rezeptgalerie oben gleich nach dem Suchfeld. Abbildung 6: Der Austausch eines Bilds mit einer besseren Visualisierung hat die Klickrate der Suchenden erhöht und das Ergebnis bei Google innerhalb von 24 Stunden von Platz drei auf eins geschoben. (Quelle: Hanns Kronenberg) Kronenberg verglich das Ganze mit einem anschaulichen Bild aus der Formel 1. Die Ranking-Algorithmen sind wie das Qualifying. Alles wird einzeln und ohne Mitbewerber verglichen. Aber im Rennen treten dann alle dynamisch gegeneinander an und hier entstehen völlig neue Konstellationen. Genau dieser Zweiteilung folgt ja auch Google mit dem Ascorer und dem nachgelagerten Superroot-System, in dem unter anderem NavBoost und viele Twiddler ein Re-Ranking vornehmen. Abbildung 7: Hanns Kronenberg von Chefkoch.de wunderte sich, warum so wenig über das Re-Ranking diskutiert wird. Zitat: KI-Inhalte sind auf dem Ranking-Rückzug … Marcus Tober hat bei seiner aktuellen Ranking-Studie (semrush) herausgefunden, dass Content, der mit KI erzeugt wurde, bereits wieder auf dem Rückzug aus den Suchergebnissen wäre. Auch die Anzahl der KI-Antworten (AIO – AI Overview) bei Google sind wieder deutlich rückläufig. Sie zu erzeugen, ist sehr teuer und es besteht nach wie vor das Problem des Halluzinierens. Einer KI prominent Antworten zu zeigen, für deren Qualität systembedingt niemand einstehen kann, das erscheint Google wohl doch nicht als der Weisheit letzter Schluss. Und letztlich könnte auch das Problem der Haftung auftreten, wenn Google jetzt „eigene“ Inhalte produziert und nicht nur Links vermittelt. Vor allem längere Suchphrasen triggern offenbar KI-Antworten. Und noch etwas ist interessant: Die empfohlenen Zielseiten in diesen KI-Antworten haben fast alle einen sogenannten Exact-Title-Match. Die Suchanfrage stimmt also relativ stark mit dem Title überein. Das stützt die Empfehlung seit zwei Jahrzehnten: Das Texten von Title und Description ist Chefsache und sollte nicht an Hilfskräfte ausgelagert werden, weil es lästig ist. Abbildung 8: „Wer wird SEOnär?“ – die legendäre Abendshow mit Florian Stelzner und Gero Wenderholm Bei transaktionalen Suchen, also solche mit vermuteter Kaufabsicht, hat Google laut Tober die KI-Antworten bereits wieder entfernt. Sie bringen offenbar keinen Umsatz und stören Klicks auf Werbung – jedenfalls momentan. Bei der Ranking-Studie war offenbar die Textrelevanz ein Top-Faktor. Hierbei wurde die thematische Übereinstimmung von Suchanfragen und Seiteninhalten über sogenannte Embeddings gemessen (siehe auch den Beitrag zum Screaming Frog in dieser Ausgabe!). Backlinks werden nach Tobers Einschätzung wieder wichtiger als Validierungsquellen, weil sie schwerer zu manipulieren sind. Hier geht es wohlgemerkt nicht um die bloße Anzahl an Backlinks, sondern um die wirklich wertvollen. Einige interessante Metriken aus der Studie waren noch, dass die in den Top Ten rankenden Sites alle in etwa ein Drittel Direct-Traffic haben. Die Time on Site liegt dort im Schnitt bei 9:42 Minuten und die Bounce-Rate bei 60,5 %. Solche Daten sind recht wertvoll, um sie mit den eigenen Werten zu vergleichen. Abbildung 9: Marcus Tober: KI-Content könnt ihr vergessen! Auch Johannes Beus hat festgestellt, dass in den USA Forenbeiträge in den Suchergebnissen nach oben gespült wurden, teilweise sogar extrem. Er sieht einen Zusammenhang mit den KI-Antworten in den Suchergebnissen. Google trainiert seine Maschine seiner Meinung nach mit solchen Beiträgen. In Deutschland sieht man den Sprung von Foren in Suchergebnisse noch nirgendwo. Würde dies passieren, kommt wohl auch die KI-Box bald bei uns an. Abbildung 10: Viele Geschäftsmodelle, die auf „Vermittlung“ beruhen, verlieren extrem Such-Traffic (Quelle: Johannes Beus) Zitat: Die Search Console ist die erste Anlaufstelle für SEO-Analysen. Wertvolle Tipps zur Nutzung der Google Search Console gab Stefan Fischerländer. Viele Nutzer interpretieren die Positionswerte nicht richtig. Bei denen handelt es sich „nur“ um Mittelwerte, nicht um die beste Position, die erzielt wurde. Bei Analysen solle man auch den Zeitraum nicht zu groß wählen, weil dies die Ergebnisse verfälschen kann. Über die Weboberfläche lassen sich jeweils nur 1.000 Datensätze exportieren. Über die API bekommt man zwar deutlich mehr Daten, aber nicht jeder möchte oder kann sie nutzen. Ein kleiner Hack, um an mehr Daten zu kommen, ist, für Verzeichnisse eine eigene Property anzulegen. Ein Beispiel: Eine Domain hat fünf Hauptverzeichnisse, in denen Seiten thematisch oder zum Beispiel nach E-Commerce/Non-E-Commerce geordnet liegen. Nun meldet man für jedes der fünf Verzeichnisse einen eigenen Zugang bei Google an. Dazu gibt man einfach statt www.domain.de die Verzeichnisadresse an, wie www.domain.de/blog/. Nun hat man sechs Search-Console-Accounts – den Basisaccount über alles und die anderen für die Verzeichnisse. Jetzt bekommt man für jedes dieser Verzeichnisse je 1.000 Datensätze. Abbildung 11: Mit sogenannten regulären Ausdrücken kann man der Search Console deutlich mehr Daten entlocken. (Quelle: Stefan Fischerländer) Allerdings hilft es auch, Seiten mit regulären Ausdrücken (RegEx) zu segmentieren. So kann man als Filter zum Beispiel drei Segmente anlegen: • Segment 1/3: www.example.com/[a-l] • Segment 2/3: www.example.com/[m-z] • Segment 3/3: www.example.com/$ Im ersten Segment liegen alle URLs mit A bis L, dann M bis Z und das $-Zeichen sorgt dafür, den Rest einzusammeln. Natürlich lassen sich durch kürzere Buchstabenabstände auch mehr als drei Segmente erzeugen. Für jedes Segment lassen sich dann wieder die 1.000 Datensätze herunterladen. Auch Fischerländer wies im Übrigen darauf hin, Suchtreffer mit – bezogen auf die Position – zu niedriger Klickrate (CTR) gezielt zu filtern und dort via Title und Description das Snippet und gegebenenfalls ein angezeigtes Bild zu optimieren. Eine Maßnahme wäre auch, die Seite zu löschen, damit keine schlechten Signale an andere Seiten der Domain übertragen werden. Wichtig dabei ist, eine kurze Zeitspanne zu wählen, damit man mit aktuellen Daten arbeitet. Seine Empfehlung war, die letzten sieben Tage zu verwenden. Abbildung 12: Stefan Fischerländer gab wertvolle Tipps zur Search Console. Fazit Aus einem SEO-Barcamp ist eine professionelle Konferenz geworden. Das ist auch gut so, denn die Zeiten, in denen SEO-Wissen in kleinen Kreisen besonders motivierter Experten weitergegeben wurde, sind mittlerweile einfach vorbei. Dabei hat die CAMPIXX den früheren Charme eines „Klassentreffens“ nicht verloren und es ist zu hoffen, dass er auch für die Zukunft zumindest in Teilen erhalten bleibt. Wer sich ernsthaft mit SEO beschäftigt, für den ist ein Besuch der CAMPIXX definitiv ein Muss. Dabei geht es nicht nur um die vielen Vorträge, sondern vor allem auch um das Netzwerken, das in den Pausen und vor allem am Abend bestens möglich ist. Save the date: Die CAMPIXX 2025 findet vom 12. bis 13. Juni in Berlin statt. Tickets sind auf der Website verfügbar.