Österreichs Leitkonferenzen: OMX & SEOkomm

Mario Fischer
Mario Fischer

Mario Fischer ist Herausgeber und Chefredakteur der Website Boosting und seit der ersten Stunde des Webs von Optimierungsmöglichkeiten fasziniert. Er berät namhafte Unternehmen aller Größen und Branchen und lehrt im neu gegründeten Studiengang E-Commerce an der Hochschule für angewandte Wissenschaften in Würzburg.

Mehr von diesem AutorArtikel als PDF laden
Kai Spriestersbach
Kai Spriestersbach

Kai Spriestersbach ist Bachelor of Science in E-Commerce und gehört zu den erfahrensten Suchmaschinen-Marketern in Deutschland. Er hat sich als Online Strategy Consultant und Partner der eology GmbH auf die strategische SEO-Beratung und Seminare zum Thema SEO und Suchmaschinen-Technologien spezialisiert. Daneben unterstützt und berät Kai Spriestersbach Start-ups in Web-Technologie- und Online-Marketing-Fragen, ist als Affiliate Publisher tätig und entwickelt innovative SEO- und Analyse-Tools für nutzerzentrierte und datengetriebene Strategien.

Mehr von diesem AutorArtikel als PDF laden

Die SEOkomm ist vielen sicherlich schon seit Längerem ein Begriff. Die am Vortrag stattfindende OMX ist mittlerweile aus deren Schatten herausgetreten und hat sich in den letzten Jahren zu einer gleichwertigen Veranstaltung entwickelt. Grund genug für Website Boosting, sich diesmal für Sie auf beiden Konferenzen umzusehen und Ihnen wenigstens eine kleine Auswahl der wertvollen Highlights aus Salzburg mitzubringen.

Während die SEOkomm sich inhaltlich strikt auf Inhalte zur Suchmaschinenoptimierung konzentriert, geht die OMX als „Online Marketing Experts Konferenz“ thematisch weiter. Da die Themen aus Branchensicht aber nah genug beieinanderliegen, nutzen viele Besucher die Möglichkeit, beide Veranstaltungen zu besuchen. Über den gegenseitigen Tellerrand zu blicken, macht ja durchaus Sinn.

Da sein, nützlich sein, schnell sein. So lautet in knappen Worten der Appell von Stefanie Reif von Google. Bis zu 150-mal pro Tag holen Smartphone-Nutzer dieses aus der Tasche und benutzen es. Damit ist dieses Device mittlerweile der sog. First Screen. Der erste Kontakt wird daher häufig darüber hergestellt, aber es wird immer noch stark unterschätzt und entsprechend vernachlässigt. 82 % aller Smartphone-Nutzer recherchieren mittlerweile in lokalen Ladengeschäften, um eine Kaufentscheidung zu treffen. Sogar während Fernsehwerbung läuft, gehen etwa zwei Drittel über ihr Handy online, um weitere Informationen zu suchen. Dabei geht es für Anbieter schon lange nicht mehr nur darum, mit den richtigen Suchbegriffen gefunden zu werden. Man muss auch verstanden haben, was Kunden wissen möchten, welche Fragen sie ggf. haben. Und natürlich: Wenn sich die Seiten zu langsam aufbauen, ist ein Großteil dieser Besucher wieder verschwunden, bevor diese fertig geladen sind.

Facebook-Experte Thomas Hutter zeigte den aktuellen Stand für zielgerichtete Werbung auf dieser Plattform auf, die sich in den letzten Monaten seiner Meinung nach extrem verbessert hat. Mit immerhin fast 1,8 Mrd. Usern ist Facebook mittlerweile wirklich eine Größe geworden, die man nicht links liegen lassen sollte. Neben klassischen demografischen Merkmalen (Alter, Geschlecht, Wohnort etc.) können dort auch persönliche Merkmale herangezogen werden. Sie möchten jemandem zu seinem Geburtstag Werbung zeigen? Oder allen Usern mit Familie, die bei einem bestimmten Unternehmen arbeiten? Oder jemandem, der sich innerhalb eines Kilometers um einen bestimmten geografischen Punkt aufhält oder dort einmal war und mehr als 3.500 € Haushaltseinkommen hat? Jemandem, der kürzlich den Arbeitgeber gewechselt hat? Alles kein Problem. Und es geht noch mehr, wie z. B.:

  • Jahrestage
  • Menschen, die eine Distanzbeziehung führen (oft einsam und kaufkräftig)
  • Ausbildungsgrad, Studienrichtung oder Abschlussjahr
  • Hobbies, sportliche Aktivitäten oder Brancheninteressen
  • Faible eher für ältere oder neue Technologien
  • Genutzte Mail-Domains, Betriebssysteme, Browser etc.
  • Intensität der Gerätenutzung, Smartphonemodelle
  • Personen, die ein Formular in den letzten 90 Tagen auf der eigenen Website geöffnet haben (rechtlich nicht unbedenklich in Deutschland)
  • Menschen, die ähnlich aussehen

Nach Hutter lassen sich auch bestehende Kunden gezielt bewerben. Dazu kann man Kundendaten aus dem eigenen CRM (Mail-Adressen, Telefonnummer und diverse IDs) zu Facebook hochladen, wo sie mit deren Daten abgeglichen werden. Selbst auf bestimmten „Aktionen“ basierende Kriterien lassen sich triggern, wie die Nutzung einer App oder gar das Erreichen eines bestimmten Punktestatus bei einem Online-Game. Über einen Einbau des Facebookpixels auf der eigenen Website eröffnen sich weitere Möglichkeiten. Wer hat bei mir Seite X, aber nicht Seite Y aufgerufen, ist länger als Z Minuten auf der Site geblieben und hat über ein bestimmtes Device zugegriffen? Wem das noch immer nicht reicht, der kann über Drittanbieter weitere harte Daten aus der realen Welt (z. B. das Kreditkartenranking) bei Facebook einspielen, um die Streuverluste noch weiter zu verringern.

Bei einigen dieser Möglichkeiten stellen sich bei deutschen Datenschützern wahrscheinlich die Fußnägel auf. Daher sollte man bei der Nutzung hier auch sicherheitshalber einen versierten Online-Anwalt zurate. Hutter wies völlig zu Recht darauf hin, dass sich hier enorme Chancen ergeben, man aber nicht vergessen darf, dass man auch die Werbemittel entsprechend ausdifferenzieren muss. Es macht keinen Sinn, beim Targeting theoretisch bis auf die Einzelperson, ihr Umfeld, ihr Verhalten und ihre Vorlieben herunterzugehen und am Ende dann doch wieder allen die gleiche Werbung anzuzeigen. Die Möglichkeiten des Targetings, so schloss Hutter, werden fast täglich weiter verfeinert, sodass man auf jeden Fall am Ball bleiben sollte.

Auf der SEOkomm eröffnete traditionell auch diesmal Marcus Tandler mit seinem bekannten Foliengewitter, aber brandaktuellen Inhalten die Konferenz, erklärte per Titel und Leidenschaft: „SEOs sind, wo oben ist“, und teilte auch seine nachvollziehbaren Visionen. Handfeste Informationen ergaben dagegen seine Recherchen. So zeigte er auf, dass es offenbar tatsächlich einen Zusammenhang zwischen der sog. Bounce Rate und dem Ranking gibt. Gut rankende Seiten haben eine deutlich geringere Rücksprungrate zu den Suchergebnissen. Google hat hier die Möglichkeit, über sog. „Long Clicks“ zu erkennen, wie zufrieden ein Suchender mit dem angeklickten Ergebnis ist – gegenüber den „Short Clicks“, wie die schnelle Rückkehr zur Suche und die erneute Auswahl eines anderen Ergebnisses bezeichnet wird. Er betonte aber auch, dass Google dazu verlauten lässt, Klicks wären „… in general are very noisy signal“, denn etwa 70 % des Traffics im Web (nicht im Internet) wird mittlerweile durch Maschinen bzw. Bots erzeugt. Gerade für die Auswahl der Top-10-Treffer für wichtige Suchanfragen testet Google recht häufig die Reihenfolge und misst die veränderten Reaktionen der Suchenden. Wer solche (oft nur kurzzeitigen) Liftups in den Rankings für seine Site bemerkt, tut also gut daran, nochmals ganz besonderes Augenmerk auf nutzerfreundliche Inhalte und Darstellungen zu legen. Erzeugen die Tests nämlich hauptsächlich Short Clicks und ergeben damit ein negatives Ergebnis, kann man ganz schnell wieder in den Ergebnissen nach unten abfallen.

Jens Bonerz gab einen Einblick in seine tägliche Arbeit mit Scrapy und Elasticsearch. Auf Basis dieser Technologien konnte er interessante Datenquellen wie zum Beispiel die Informationen auf einzelnen XING-Profilen mit den Sichtbarkeitswerten der zugehörigen Domains und deren Backlink-Profil kombinieren. Dabei suchte er beispielsweise nach Fotografen in einer bestimmten Stadt, deren Domains eine gewisse Anzahl an Verlinkungen und Rankings besitzen, wodurch es ihm möglich war, zielgerichtet themenrelevante Kontakte für die Linkakquise zu extrahieren.

Zum Thema „User-centered Content-Erstellung“ lieferte Martin Höllinger wichtige Anregungen im Umgang mit Inhalten in der Suchmaschine. Dabei plädierte er wie viele andere dafür, sämtliche Inhalte konsequent auf die Bedürfnisse der jeweiligen Nutzer auszurichten. Als Seitenbetreiber muss man sich zu jeder Suchanfrage die Frage stellen, was der Besucher von einer Webseite erwartet und was man als Betreiber von dem jeweiligen Besucher will (z. B. eine Call-to-Action oder eine Conversion). Die große Kunst dabei ist es seiner Meinung nach, auch wirklich die richtige Seite zur passenden Suchanfrage in der Suchmaschine zu platzieren und sich nicht mit „interner“ Konkurrenz selbst zu behindern. Nur wenn Nutzer genau das finden, was sie suchen, führt dies zu besseren Nutzersignalen und damit am Ende auch zu besseren Rankings. Schlechte Inhalte oder Seiten, die für niemanden interessant sind, sollten aus Sicht Höllingers tatsächlich besser gelöscht oder zumindest aus dem Index der Suchmaschine entfernt werden. Konkrete Beispiele dazu blieb er denn auch nicht schuldig und zeigte, wie sich eine Website tatsächlich positiv in der Sichtbarkeit entwickelte, die diese konsequente Ausrichtung und Verschlankung vollzog.

Bei einer Podiumsdiskussion mit John Müller von Google versuchten die Teilnehmer, Antworten auf aktuell brennende Fragen von Webmastern und SEOs zu bekommen. Eine frühere Aussage von Gary Illyes (ebenfalls Google), der zufolge künftig auch auf Smartphones eingeklappte Texte zum Ranking herangezogen würden, hörte sich bei Müller spürbar relativiert und auch vernünftiger an. Er meinte, dass es schwierig wäre, wenn ein User mobil etwas nicht sieht, nach dem er gesucht hat. Dies macht durchaus eine Menge Sinn, denn wenn man die Antwort auf eine Suchanfrage auf einer responsiven Webseite nicht erkennen kann bzw. sie erst durch unzähliges Auf- und Zuklappen von Menüs findet, leidet die User-Erfahrung ganz sicher.

Und letztlich muss man sich auch fragen, ob Google hier dem Black Hat SEO damit erneut eine große Türe öffnet. Texte ausschließlich für die Suchmaschine zu schreiben und sie dann vor den Besuchern mit allen möglichen Tricks zu verstecken, wurde ja bereits vor mehr als zehn Jahren praktiziert. Google hat das aber in der Vergangenheit recht gut in den Griff bekommen, in dem man tatsächlich nur das gewertet hat, was auch sichtbar war bzw. angezeigt wurde. Diesen Vorteil gegenüber den Spammern würde man dann ggf. wieder verlieren. 

Eine ganz zentrale Frage treibt derzeit wohl viele SEO um: Was hat es mit der Ankündigung (erneut von Gary Illyes) auf sich, dass Google nächstes Jahr den mobilen Index zum primären Index für das Ranking machen würde. Und natürlich wurde diese auch gestellt. John Müller erklärte, dass Google derzeit deswegen sehr viel experimentiere und teste, um herauszufinden, ob und wie sich die Suchergebnisse verändern würden. Wo sind die Verlinkungen anders? Gibt es überhaupt starke Veränderungen oder vermuten wir nur, dass sich hier ein Problem auftun könnte? Man habe das nur frühzeitig bekannt geben wollen, es gibt aber noch keinen festen Fahrplan, geschweige denn eine fertige Lösung. Wenn man beim Testen herausfände, dass Webmaster wirklich wichtige Änderungen vornehmen müssten, bräuchte das auch sicherlich noch mehr Zeit und man würde – und das ist für viele sicher eine beruhigende Aussage – vorher entsprechende Empfehlungen herausgeben.

Abseits dieser Diskussion waren sich auch viele Experten einig, dass es so etwas wie einen „mobilen Index“ gar nicht gibt bzw. geben wird. Nach wie vor würde Google, so die Einschätzung vieler, mit einem einzigen Index arbeiten, der aber natürlich entsprechende Kennzahlen pro ULR und Domain hinsichtlich der „mobile friendlyness“ im weitesten Sinne enthalten wird, die jeweils berücksichtigt werden. Eine zweite „Datenbank“ in Form eines weiteren abgesonderten Index aufzubauen und den bisherigen „Desktop-Index“ hinanzustellen, wird daher auch aus technischer Perspektive als eher unwahrscheinlich angesehen. Gesichert sind diese Vermutungen allerdings natürlich nicht.   

Auf die Frage, ob man aus der Google Search Console über die API noch mehr Datenpunkte holen könnte (z. B. die HTML-Verbesserungen), meinte Müller, dass daran wohl schon gearbeitet würde. Da sich aber Prioritäten kurzfristig ändern können, gäbe es keinen konkreten Zeitpunkt dafür.

Müller wies innerhalb einer Antwort auch darauf hin, man müsse beim personalisierten Ausliefern dynamischer Seiteninhalte aufpassen, dass der Googlebot hier nur den „normalen“, für alle verfügbaren Content indexieren kann. Das kann z. B. bei automatischen, IP-basierten Länderweichen Probleme machen, weil der Bot ja aus den USA anfragt. Im schlimmsten Fall bekäme er dann (nur) englischen Text für den deutschen Suchindex. Daher solle man Länder- und Sprachversionen immer korrekt kennzeichnen.

Warum gibt es bei Google keine Möglichkeit des sog. Content Claiming, also des Anmeldens eines bestimmten Inhalts als Content eines Websitebetreibers wie z. B. bei Yandex, wollte Michael Schöttler wissen. Müller erklärte, dass gerade Spammer oft technisch sehr viel versierter seien. Man könne z. B. Content vor dem Googlebot crawlen und ihn dann als eigenen Content publizieren und gleichzeitig bei Google als solchen kennzeichnen. Das würde Manipulationen Tür und Tor öffnen. Er meinte, dies müsse man maschinell intelligent(er) beurteilen. Nach dem Zeitpunkt einer Einreichung zu verfahren, hält er für nicht praktikabel.    

Als Fazit für beide Konferenzen bleibt natürlich höchst subjektiv festzuhalten, dass Speaker, Themen und Location von den Veranstaltern Oliver und Uschi Hauser sowie dem Fachbeirat bestens ausgesucht und zusammengestellt wurden. Viel Input, ausreichend Zeit für Networking und zwei Partys an beiden Abenden rufen geradezu nach einem Wiederholungsbesuch im nächsten Jahr, und dies sei allen ernsthaften Online-Marketers als klare Empfehlung wärmstens ans Herz gelegt.