Stark im Aufwind: OMX & SEOkomm

Mario Fischer
Mario Fischer

Mario Fischer ist Herausgeber und Chefredakteur der Website Boosting und seit der ersten Stunde des Webs von Optimierungsmöglichkeiten fasziniert. Er berät namhafte Unternehmen aller Größen und Branchen und lehrt im neu gegründeten Studiengang E-Commerce an der Hochschule für angewandte Wissenschaften in Würzburg.

Mehr von diesem AutorArtikel als PDF laden

Bereits im letzten Jahr hatten die beiden zusammengehörenden Konferenzen OMX (Online Marketing Experts) und die SEOkomm (konzentriert auf Suchmaschinenoptimierung) inhaltlich spürbar zugelegt. In diesem Jahr setzten die Veranstalter Oliver und Uschi Hauser tatsächlich noch mal eines drauf. 350 Stunden feilten die beiden zusammen mit dem Fachbeirat in Summe an den beiden Agenden, wählten Speaker und Themen aus, und eine so sorgfältige Planung zahlt sich eben am Ende aus. Und so wurden die sicher bereits hohen Erwartungen der 800 OMX- und 900 SEOkomm-Teilnehmer zumindest laut Flurfunk tatsächlich übertroffen. In jeweils drei parallelen Slots gab es zwei intensive Tage lang Expertenwissen auf die Ohren. Aber auch an die Einsteiger wurde gedacht. Website Boosting hat sich auf beiden Konferenzen umgesehen und einige der Highlights für Sie mitgebracht. Und viel mehr, als eigentlich geplant war.

Realität erschaffen

Die Keynote zur Eröffnung hielt der bekannte Karl Kratz. Er zeigte anhand vieler eingängiger Beispiele, wie man als Sitebetreiber ein ganzes Stück auf die wahrgenommene „Realität“ des Besuchers einwirken kann. Das scheint noch immer vielen Verantwortlichen nicht klar geworden zu sein. Das Web ist momentan in den meisten Fällen ein schrecklicher Ort, um ein T-Shirt, einen Kühlschrank oder einen Wohnzimmertisch zu kaufen. Zu kalt, emotionslos und unerklärt werden Produkte dargeboten. Kauf oder hau wieder ab. Emotionale Texte schreiben? Davon wollen viele nichts wissen bzw. man scheut den Aufwand. Natürlich ist es als Händler einfacher, die Texte vom Hersteller zu übernehmen. Dazu das Herstellerbild und alles ist gut. Wirklich?

Nein – eben nicht. Gerade die Hersteller haben oft die größten Betriebsbrillen auf und sind nicht in der Lage oder willens, sich in einen noch unwissenden und unsicheren Kunden hineinzuversetzen. Beschreibungen bestehen aus Marketingaussagen, wie toll das Gerät sei. Und das – es ist toll! – steht dann bei allen Geräten zusammen mit sich oft nur in kaum wahrnehmbaren Nuancen unterscheidenden technischen Angaben. Der Verkäufer beim Händler vor Ort im Ladengeschäft erklärt das dann schon. Zwar stimmt auch das in der Regel nicht, aber im Web wird es für den Händler dann kritisch, weil er eben mehrere Hersteller im Angebot vereint, und der kaufwillige Kunde wird verunsichert, weil die Geräte dann herstellerübergreifend oft technisch gleich erscheinen und er nicht versteht, ob jetzt „Super-Frost-Power“ von Marke A etwas anderes ist als „Fridge-Boost-Sensor“ von Marke B.

Mitarbeiter sind bei Kundenfragen oft überfordert

Fragt man dann nach, so wie Kratz das im Chat bei Otto versuchte (Abbildung 3), trifft man auf Mitarbeiter, die eben auch hilflos wirken. Bei Verunsicherung, vielleicht doch das Falsche oder für seine Bedürfnisse nicht das Optimale zu kaufen, unterbleiben Käufe dann am Ende meist, das ist hinlänglich bekannt. Erstaunlich war, dass im Chat an keiner Stelle gefragt wurde, was dem Kunden wichtig ist, um ihm bei der Kaufentscheidung zu helfen. Sieht man sich den Chatverlauf an, mag man zu der Überzeugung gelangen, dass ein Bot das heute vielleicht wirklich schon besser kann als überforderte Mitarbeiter. Kein Wunder, denn denen liegen ja die gleichen Infos vor wie dem Besucher des Shops.

Kratz ging in Sachen Emotionalität noch einige Schritte weiter. Er stellte im Konferenzraum einen frischen Apfelkuchen auf den Tisch und ließ das Aroma mit einem Ventilator durch den Raum strömen. Parallel zeigte er Sites, die Apfelkuchen verkaufen. Für einen Apfelkuchen von Coppenrath & Wiese stellte der Händler „mehr als 100 Jahre Erfahrung in der Lebensmittel-Branche“ heraus, statt verführerisch über den Geschmack zu texten. Auf einer B-to-B-Plattform hieß es gar nur: „Gedeckter Apfelkuchen, Art. Nr. 1838“, zusammen mit einem nicht sonderlich appetitlichen Bild. Man sah, dass er direkt aus der Fabrik kam. Ob einem da das Wasser im Mund zusammenläuft? Sicher nicht. Anhand weiterer Beispiele wurde deutlich, dass sogar die Beleuchtung (kalt weiß oder leicht bläulich) im Inneren eines für das Produktbild geöffneten Kühlschranks eine positive oder negative Wirkung haben kann.

„Das tut so weh!“; Karl Kratz

Gerade mit den B-to-B-Anbietern hatte Kratz ein berechtigtes Hühnchen zu rupfen. Die stehlen sich nämlich meist mit einer „Schön – bei uns ist das aber anders“-Einstellung aus solchen Veranstaltungen. Versetzt man sich in den Kunden, stellt man oft fest: gleicher Preis, gleiches Produkt, gleiche Konditionen, gleiche Verfügbarkeit. Schrauben kann man nicht mit Emotion verkaufen. In Abbildung 4 oben zeigte Kratz ein positives Beispiel dafür. Allerdings löste er das gleich danach wieder auf. Es war ein Fake von ihm und der echte Text auf der entsprechenden Seite lautete: „477 Schrauben in 1.592 Ausführungen.“ Auf der Website des Herstellers von Qualitätsschrauben, Würth, könnte z. B. stehen:

„1 Kilo No-Name-Schrauben für 1,79 €: lebenslange Ungewissheit. Die richtige Entscheidung für eine starke, dauerhafte Verbindung: unbezahlbar!“, oder:

„Sie treffen mit unseren Schrauben sicher eine gute Entscheidung: Sie halten z. B. Tag für Tag zuverlässig Flugzeuge, Panzer und Raumstationen zusammen.“

Stattdessen lautet die Überschrift dort: „Verbindungselemente.“

Das Credo von Kratz waren am Ende fünf Empfehlungen:

  • Erzeuge gezielt eine neue Realität
  • Leite Aufmerksamkeit
  • Intensiviere Verortung durch Sensorik
  • Erzeuge Resonanz
  • Verwende Symbolik

Unterschätze nie die Komplexität einer Kaufentscheidung

In eine ganz ähnliche Kerbe schlug auch Prof. Herbst von der Universität der Künste aus Berlin. Er wies darauf hin, dass gerade Situationskäufe oft komplex sein können. Ort, Zeit, Motive und einige andere Faktoren spielen da häufig mit hinein. Während ein und dieselbe Dusche am Morgen wegen des Motivs „Erfrischung“ benutzt wird, ist es am Abend ein völlig anderer Grund, nämlich „Entspannung“. Orangen kauft man wegen der Erfrischung, wegen des Vitamin C bei Krankheit oder für einen Cocktail. Auch bei seinen weiteren Beispielen kam eines deutlich heraus: Emotion und Situation mit zu berücksichtigen, wird zunehmend kaufentscheidend. Und das nicht nur deswegen, weil sehr viele dieser Entscheidungen eben mittlerweile über das Smartphone getroffen werden, dessen Nutzungskontext eben nicht immer der gleiche ist wie häufig beim heimischen PC oder im Büro.

40 Social-Media-Tools in 40 Minuten

Social–Media-Experte Felix Beilharz zeigte in seinem Vortrag nicht weniger als 40 kostenfreie Tools, welche die eigene Arbeit leichter, schneller oder effizienter machen können. Wer z. B. bei der Werbung über Facebook viel mit interessenbasiertem Targeting arbeitet, sollte sich iinterests.com (tatsächlich mit zwei „i“) näher ansehen. Das Tool hilft, mehr passende Gebiete zu finden, die man dann wiederum in die entsprechenden Eingabemasken von Facebook kopieren kann. 

Influencer-Marketing ist aktuell ein heißes Thema bei Unternehmen. Die richtigen Influencer für Instagram zu finden, ist aber nicht immer einfach. Besonders, wenn man sie vergleichend bewerten und mehr Sicherheit für Fake-Follower haben möchte, empfiehlt sich „Influencerdb.net“. Nach der Eingabe eines Instagram-Usernamens erhält man umfassende Informationen zu dessen Profil. Viele Daten bekommt man hier nach einer Registrierung bereits in der kostenlosen Version. Für eine Social-Media-Analyse empfahl Beilharz u. a. „Socialblade.com“ oder „Socialrank.com“. Auch hier lohnt das Ausprobieren, ob und welche Daten man für das eigene Unternehmen verwenden kann. Mit „Twitteraudit.com“ lassen sich übrigens Accounts mit gefakten bzw. gekauften Followern leicht identifzieren (Abbildung 6). Bekanntlich kann man mit wenig Geld im Darknet oder anderen Plattformen fast beliebig „zukaufen“, um sein Mediaprofil entsprechend aufzuhübschen oder seinen Wert als „Influencer“ in die Höhe zu treiben. Für einen entsprechenden „Like-Check“ einer Fanpage bei Facebook bietet Felix Beilharz übrigens unter felixbeilharz.de/like-check selbst ein recht nützliches Tool an.

Welchen Traffic aus sozialen Netzwerken hat eigentlich ein Mitbewerber? Hier hilft laut Beilharz Similarweb.com, das eben auch diese speziellen Kanäle gut aufschlüsselt.

Similarweb ermittelt diese Daten anhand von Browser-Plug-ins und rechnet sie auf den gesamten Traffic hoch. Da dies je nach Branche unterschiedliche Fehler enthalten kann, hier noch ein ergänzender Tipp der Redaktion: Vergleichen Sie zunächst die Ihnen bekannten Zahlen Ihrer Webpräsenz mit den bei Similarweb ausgegebenen Daten und ermitteln Sie den statistischen Fehler. Jetzt können Sie mit diesem „Korrekturfaktor“ die Wettbewerberzahlen entsprechend nach oben oder unten korrigieren und liegen damit meist deutlich näher an der Realität. Wer z. B. sehr webtechnikaffine Kunden hat, wird statistisch nämlich meist öfter von den mitlesenden Plug-ins erfasst als jemand, der Strickmuster anbietet. Da der Fehlerquotient aber innerhalb einer Branche oft ähnlich ist, bringt dieses Vorgehen mehr Klarheit.  

Wer wissen möchte, wie gut Kampagnen von Mitbewerbern laufen bzw. wie oft deren Links angeklickt werden, kann zumindest bei mit Bit.ly und Goo.gl Einblick bekommen. Dazu fügt man einfach an die verkürzte URL in Pluszeichen „+“ hinzu. Anschließend erhält man eine Auswertung und kann sehen, wie viele Klicks wann auf die eigentlich verlinkte Adresse erzeugt wurden. Diese und alle anderen Tools stellt Beilharz in einem kostenlosen E-Book (Abbildung 8) auf felixbeilharz.de/40tools zur Verfügung.

„Was soll dein Leser fühlen? Verführe Menschen mit Worten. Bring sie gedanklich dorthin, wo du sie haben willst.“; Christiane Sohn

Make my content great again,

so das Anliegen von Christiane Sohn, die sich u. a. der Erstellung hochwertiger, emotionalerer Texte verschrieben hat. Neben der üblichen Planung und Kontrolle vergessen viele die fortlaufende Pflege ihrer bereits bestehenden Inhalte. Ein Textaudit kann hier wahre Wunder, nicht nur beim Ranking, sondern vor allem auch beim Leser einer Landingpage bewirken, so Sohn. Das Festlegen regelmäßiger Überarbeitungstermine kann bereits bei der Erstellung eines Textes helfen, dies im Auge zu behalten. Auch sie empfahl, mehr Emotionen in den Content zu tragen. Die üblichen Standard-Blabla-Texte, dass das Unternehmen das größte, schönste und beste sei, das man finden könne, lockt heute niemanden mehr hinter dem Conversion-Ofen hervor. Man solle sich selbst und seine Produkte etwas mehr zurücknehmen und wieder mehr den Kunden und seine Absichten in den Vordergrund stellen. Die Mischung aus Emotion, Fokus und Lesbarkeit macht den Erfolg, erklärte die Expertin mit einigen nachvollziehbaren Beispielen. Oft reiche es bereits, wenn man auf den sprichwörtlichen Stuhl steige, um die eigenen Texte aus einer anderen Perspektive zu betrachten. Einen Tipp gab es noch zum Abschluss: Eigene Texte solle man immer mindestens einen Tag liegen lassen. Bereits am nächsten Tag wirke er dann oft ganz anders als in der Hitze des Schreibgefechts.

Traffic nützt wenig, wenn er nicht konvertiert

Nils Kattau, seines Zeichens Conversion-Optimierer, gab ebenfalls viele Tipps, wie man mehr Kunden bis zum Weg zur virtuellen Kasse bringt. Eine nicht unwesentliche Rolle spielen dabei die Call-to-Action. Diese sollten, so Kattau, auf jeden Fall immer das „Was“ und das „Warum“ enthalten.

  • Laden Sie das kostenlose E-Book herunter (was) und werden Sie ein besserer Marketer (warum).
  • Wählen Sie einen kostenfreien Rückruf (was), um herauszufinden, wie wir Ihnen helfen können, Ihre Umsätze zu steigern (warum).
  • Abonnieren Sie unseren monatlichen Tipp-Newsletter (was), um aktuelles Know-how direkt in Ihre Eingangsbox zu bekommen (warum).
„Haben Sie ein Herz für Leute mit dicken Fingern“; Nils Kattau

Oft scheitern einfache Absichten bei Besuchern über Smartphones, weil die Besonderheiten der Bedienung nicht genügend berücksichtigt werden. Auch dafür hatte Kattau drei einfache Tipps dabei. Jeder klickbare Link bzw. Button sollte genügend freie Fläche außen herum spendiert bekommen, damit der Interaktionsversuch mit dem „dicken Daumen“ auch wirklich zuverlässig klappt. Die Buttons sollten dabei als Faustformel mindestens immer so groß wie ein Fingernagel sein. Auch der Unsitte, sog. klebende Inhalte bzw. Interaktionslinks rechts unten zu verorten, erteilte er eine deutliche Absage. Hier sind Fehlbedienungen bei einem einhändig bedienten Smartphone praktisch vorprogrammiert.

Die URL ist tot – es lebe die URL

Der nächste Tag und damit die SEOkomm stand ganz im Zeichen der Suchmaschinenoptimierung. Marcus Tandler hielt traditionell erneut die Keynote mit dem vielversprechenden Titel „Position Zero“. Und wieder gab es traditionell ein wahres Foliengewittter, das es in sich hatte. Er wies auf ein neues Patent (US #9.767.157) von Google hin, das u. a. von Navneet Panda eingereicht wurde, dem „Vater“ des bekannten Panda-Updates. Es beschreibt grob, wie man eine „Basisline“ für die Qualität einer Webseite zu einem bestimmten Thema festlegen kann. Daran können dann andere Seiten, vor allem neue, gemessen bzw. verglichen werden. Erneut geht es also darum, einen Score für inhaltliche Qualität festzulegen. Der Trend gehe wohl, so Tandler, immer mehr weg von den Backlinks für die Beurteilung einer Website oder einzelnen Webseiten und hin zu mehr zur Faktenprüfung durch den sog. Knowledge Vault. Bekanntlich sammelt Google seit Längerem Entitäten und ihre Beziehungen (sog. Triplestores) untereinander. Über den genügend großen statistischen Überblick lässt sich der Wahrheitsgehalt von Content in vielen Fällen recht gut eben auch maschinell beurteilen (siehe Titelbeitrag „Google Rankbrain“ Website Boosting Ausgabe 36).

Der neueste Coup ist wohl, dass man entgegen der bisherigen Politik nun den Google-Bot hinter sog. Paywalls, also Bezahlschranken, bei Verlagen laufen lässt und den eigentlich verborgenen Inhalt crawlt und indiziert. Hat man ein Abo beim entsprechenden Medium, wird diese Quelle ggf. im Suchergebnis ausgegeben. Während die Verlage also mit allem, was sie haben, nach Google treten, bemüht man sich dort, ihnen immer weiter entgegenzukommen. Das könnte zu einer Art Spotify für Publisher werden, meinte Tandler.

This content is inside a paywall, and requires a subscription or registration.

Er riet dazu, die Google Search Console mehr und aktiver zu nutzen. Hier lassen sich mit etwas detektivischem Eifer viele Potenziale heben. Ein Tipp war, per „Exakt“-Einstellung nach wichtigen Keywords zu filtern und so einfacher die berüchtigten Doppelrankings mit unterschiedlichen URLs aufzuspüren bzw. zu beheben.

„Mit gutem SEO bekommt man nicht mehr als eine Chance“; Marcus Tandler

Apropos URL: Nach Meinung von Tandler wird es aller Wahrscheinlichkeit nach in naher Zukunft vielleicht gar keine URLs mehr geben. Insbesondere die Bemühungen von Google, AMP immer weiter in die Breite zu drücken, insb. AMP for E-Commerce, könnten dazu führen, dass immer mehr wichtige Websites direkt via AMP bei Google hosten. Das W3C arbeitet bereits seit Ende 2015 an übergreifenden Bezahlstandards. Über Payment Request APIs könne dann alles bequem(er) abgerechnet werden. Eine Site fragt dabei beim Browser nach einer automatischen Bezahlmöglichkeit an, eine installierte App gibt die Anforderung und damit den Browser für die Inhalte frei.

„Looking to the future, the next big step will be for the very concept of the ‚device’ to fade away. Over time, the computer itself — whatever its form factor — will be an intelligent assistant helping you through your day. We will move from mobile-first to an AI-first world.” (Sundar Pichai)

Bereits heute ist der überwältigende Teil der verfügbaren Daten ohne URL. Über Progressive Web Apps (PWA) lassen sich einfach Inhalte ohne Änderung der URL übermitteln und interagieren. Ein wesentlicher Teil aller gesuchten Informationen könnte also über Apps und Feeds kommen. Von einem „Mobile-first-Index“ könnte man daher in absehbarer Zeit zu einem „Cloud-first-Index“ kommen. Alle Daten werden bei Google in der Cloud (AMP lässt grüßen) abgelegt. Das spart Google Milliarden Dollar an Crawling-Aufwand und macht alles superschnell.

Cindy Krum, Mobile-Marketing-Evangelistin, bringt es mit der Aussage „Google wants to cut out the middlemen, whitch it turns out, are ULRs“ auf den Punkt. Das klassische Surfen – ein Modell für das Altersheim des Internets? Über JSON-LD (LD steht für „Linked Data“) können aus unstrukturierten Daten strukturierte (maschinenles- und verstehbar) gemacht werden. Eigentlich wären die Werkzeuge für eine URL-lose Zukunft bereits da.

Und wer künftig aus der Masse herausstechen will, muss für sprachbasierte Suchen fit sein. Tandler zeigte anhand einiger Beispiele, dass es eben hier nichts mehr nützt, z. B. mit „Sixpack“ zu ranken, wie derzeit die Zeitschrift Men´s Health auf Platz eins. Per Voice Search stellt man Fragen wie „Wie bekomme ich ein Sixpack“ oder „Wie oft muss ich trainieren für ein Sixpack“. Hier rankt die Zeitschrift nur sehr weit hinten in den Ergebnissen. Antworten über solche Anfragen kommen in der Regel aus sog. Featured Snippets, die über dem ersten organischen Treffer platziert sind. Position Zero, wie Tandler dies nennt.

Alexa, ist das dein Ernst?

Ähnlich argumentierte auch Karl Kratz, der auf der SEOkomm ebenfalls einen Vortrag beisteuerte, diesmal über Voice Search. Er demonstrierte anhand einer eigens mitgebrachten Alexa von Amazon, wie schrecklich es ist, Produkte über den kleinen schwarzen Turm kaufen zu wollen. Alexa liest die Produktbeschreibung vor, die oftmals aus einfach nur zusammengestückelten Produktfeatures generiert wurde. Hier beißt sich die SEO-Katze in den Amazon-Schwanz. Für ein gutes Ranking packen Anbieter alles in den Produkttitel, was bei drei nicht auf den Bäumen ist. Alexa liest dieses Kauderwelsch ohne Punkt und Komma emotionslos vor, gefolgt von einem: „Willst Du das bestellen?“ Nein, kann die Antwort da nur lauten. Oder was würden Sie auf „DresselhausJD79UniversalschraubemitSenkkopfundFräsrippen IsternTeilgewindeviermalfünfzigmmfünfhundertStückgalvanischverzinktgelbchromatiertnullschrägstricheintausendeinhundertsiebenunddreißgschrägstrichnulleinundzwanzigschrägstrichnullkommavierschrägstrichfünfzigschrägstrichschrägstrichnulldrei“ (Originalton) wohl antworten?

„Alexa, bestelle Holzschrauben“; Karl Kratz – „Ärgs-Kotz-Rülps-Nummernummernummer“; Alexa (sinngemäß)

Umgekehrt wird tatsächlich bei einem Nein nur noch ein zweites Ergebnis vorgelesen. Danach ist Schluss. Die ersten beiden Treffer also, der Rest fällt hinten runter. Und auch wenn die einzeln betrachteten Datenpunkte beim jeweiligen Unternehmen hinsichtlich der mobilen Suche vielleicht noch unterrepräsentiert sind – Kratz wies zu Recht darauf hin, dass wir es auch im Web in der Regel mit exponentiellem Wachstum zu tun haben. Es kann also schnell gehen und man bereitet sich besser bereits heute darauf vor. Unter pending.schema.org, der Plattform der Suchmaschinen für konforme Datenbezeichner, kann man bereits über ein Tag „speakable“ entdecken. In (künftig) derart getaggten Textbestandteilen sollte man ganz besonders darauf achten, merkfähig zu schreiben.

Mobile first, Speed und Canonical bewegen derzeit Webmaster

John Müller von Google stand auch in Salzburg ambitionierten Websitebetreibern Rede und Antwort. Es zeigte sich allerdings, dass die meisten Fragen identisch oder ähnlich zu denen auf dem SEO-DAY waren (siehe den Beitrag in dieser Ausgabe). Der „Mobile-first-Index“ bereitet vielen Kopfzerbrechen, ebenso wie das Problem der korrekten Sprachseite in den Suchergebnissen, dem man vorrangig mit dem hreflang-Tag und dem PageSpeed begegnen möchte. Hier lauteten Müllers Antworten erwartungsgemäß gleich. 

Wozu taugen Rankinganalysen?

Wo helfen Daten und wie kann man datengetrieben vernünftige Content-Audits durchführen? Diesem Thema widmete sich Kai Spriestersbach mit einem wirklich beachtenswerten Vortrag. Er räumte begründet mit der Vorstellung auf, aus Rankinganalysen mehr herauszulesen als das, was sie sind: Marketinginstrumente für die Ersteller. Aus wissenschaftlicher Sicht ist keine dieser „Studien“ haltbar, so sein Fazit.

„Alle Ranking-Faktoren-Studien sind Bullshit“; Kai Spriestersbach

Bekanntermaßen teilt man Keywords grob in drei Bereiche:

  • Navigationsorientiert (der Suchende will zu einer Marke oder bestimmten Website und nutzt die Suchmaschine als Abkürzung, indem er z. B. „BMW Nürnberg“ eingibt
  • Informationsorientiert (jemand möchte eine bestimmte Information haben)
  • Transaktionsorientiert (man möchte etwas kaufen oder bestimmte Interaktionen durchführen)

Spriestersbach hat sich dazu die Originalpublikation von Andrei Broder, der inzwischen bei Google arbeitet, genauer angesehen. Die oben genannten drei Begriffe bilden nur den ersten Level einer Taxonomie von Suchanfragen. Auf dem zweiten Level findet man weitere wichtige Unterteilungen wie „Directed, Undirected, List, Find, Advice, Obain, Download, Results“. Und es gibt noch einen weiteren, dritten Level mit „Closed, Open, Online, Offline, Free, Not Free, Links, Other“. Hiermit kann man eine Suchanfrage tiefer gehend spezifizieren. Eine Anfrage nach dem I-D-C-Schema wäre also z. B. Informational, Directed, Closed, also eine informationsorientierte geschlossene Frage, die nur eine direkte Antwort hat. Wie hoch liegt Salzburg? Und genau hier kommt Google eben mit einer direkten Antwortbox über den Suchergebnissen: 424 m. Tippt man dagegen bspw. „Handyverträge“ in den Suchschlitz, erscheinen vier AdWords oben, drei unten und zusätzlich Shopping-Ergebnisse. Der Rückschluss vom Keyword bzw. der Suchintention „Transaktional“ wird von Google richtig erkannt. Ist sich Google nicht ganz „sicher“ über die Suchintention, werden die Ergebnisse eher diversifiziert, weil sich damit die Wahrscheinlichkeit erhöht, dass der richtige Treffer vielleicht dabei ist. „Käfer“ bringt Ergebnisse über das Krabbeltier, aber auch den VW-Käfer. Gibt man hingegen z. B. „Zalando“ ein, erscheint rechts der sog. Knowledge Graph mit Informationen zum Unternehmen. Aha, eine navigationsorientierte Suchintention. Um die richtigen Ergebnisse je nach Suchintention liefern zu können, müssen Suchmaschinen also unterschiedliche Signale nutzen oder geben bei Unsicherheit lieber Gemischtes zurück. Spriestersbach wies noch darauf hin, dass auch die Reihenfolge bzw. das Vorhandensein der angezeigten Kategorien unter dem Suchschlitz bei Google nach der Suche („Alle“, „Shopping“, „News“, „Bilder“ etc.) einen Hinweis auf die Einordnung des Suchbegriffs durch Google sein kann. Wird z. B. „Shopping“ angeboten, ist das meist ein eindeutiger Hinweis aus eine transaktionale Suche. Bei der Beurteilung z. B. der Seitenbesuchsdauer, kann eine tiefergehende Klassifizierung also durchaus hilfreich sein. So hat eine Suchintension der Klasse IDO (Informational, Directed, Open) sicher eine deutlich höhere Aufenthaltsdauer als eine IDC-Anfrage (C für Closed, also geschlossene Frage).

Da alle diese Anfragen bzw. Keywordphrasen anders behandelt werden müssen, kann es folgerichtig auch keine gemeinsamen Rankingfaktoren geben. Teilweise wandelt Google durch Anpassungen im Queryprozessor die ursprüngliche Anfrage um. „Reis Gerichte“ bringt auf Platz 1 die besten Reis-„Rezepte“. Wer nun den Title via Messung auf das Vorhanden der ursprünglichen Suchphrase maschinell für eine Studie analysiert, muss zwangsläufig verfälschte Daten sammeln. Auch sog. Scheinkorrelationen, also der beobachtbaren Daten-„Gleichschritt“ zweier beobachtbarer Phänomene ohne kausalen Zusammenhang, spielen hier oft einen Streich. Der früher und teilweise heute noch verbreitete Unsinn, Facebook-Likes seien ein wichtiger Rankingfaktor, zeigt das Problem beispielhaft. Da Google gar nicht maschinell an die Likes herankommt, ist es viel plausibler, dass gut rankende Seiten eben durch den dadurch verursachten stärkeren Traffic mehr Likes bekommen – nicht umgekehrt.

Spriestersbach zog auch die aktuelle Rankingstudie von Semrush in Zweifel, auch wenn diese angeblich mittels Machine Learning, dem neuen Zauberwort, erstellt wurde. Die Methodik ist seiner Meinung nach bereits nicht stimmig, weil man für den dort verwendeten Random-Forest-Algorithmus unabhängige Variablen benötigt, die in der Struktur bei Webseiten meist per se gar nicht vorliegen. Somit lassen sich auch keine belastbaren Analyseaussagen generieren. 

Trotzdem können Daten zur Ableitung für SEO-Maßnahmen enorm helfen, so Spriestersbach – man darf sie nur nicht verallgemeinern. Neben einigen anderen Tipps empfahl Spriestersbach die Nutzung von keword-hero.com/de, um sich via Google Analytics die eigenen Suchworte wiederzuholen bzw. das bekannte „Not provided“-Problem dort zu umschiffen. Seit 2011 unterdrückt Google bekanntlich meist über 95 % der eingegebenen Suchworte in Analytics und man sieht stattdessen nur einen Hinweis auf eben dieses „not provided“. Das macht die klassische Erfolgsanalyse schwer und man erkennt nicht mehr, welche Suchbegriffe für wie viele Conversions oder Umsatz verantwortlich sind. Der Keyword-Hero dreht unter Zuhilfenahme verschiedener Datenquellen und maschineller Lernalgorithmen das Verhältnis um. In der Regel werden danach 95 % und mehr aller Keywords zugeordnet, statt nur noch 2 bis 3 % wie vorher. Bis zu 25 URLs pro Tag sind zum Testen kostenlos. Wer mehr möchte, zahlt für 250 URL 9 US$, bis 1.000 URL 29 US$ und unlimitiert dann 99 US$, wahrscheinlich pro Monat. Der Anbieter hat vergessen, den Bezahlzeitraum mit auf die Website zu schreiben. Auch so was gibt es. Derzeit läuft allerdings noch die Betaphase.

Fazit

Alles in allem waren beide Konferenzen inhaltlich rund und bestückt mit wirklich sehr guten Vortragenden. Wer nächstes Jahr im November noch Zeit und Budget übrig hat, bekommt sicherlich ein Vielfaches davon in Form von frischem Know-how und guten Denkanstößen zurück.