Search Marketing Expo

Mario Fischer
Mario Fischer

Mario Fischer ist Herausgeber und Chefredakteur der Website Boosting und seit der ersten Stunde des Webs von Optimierungsmöglichkeiten fasziniert. Er berät namhafte Unternehmen aller Größen und Branchen und lehrt im neu gegründeten Studiengang E-Commerce an der Hochschule für angewandte Wissenschaften in Würzburg.

Mehr von diesem AutorArtikel als PDF laden
Tobias Aubele
Tobias Aubele

Tobias Aubele ist Professor für E-Commerce an der Hochschule für angewandte Wissenschaften Würzburg-Schweinfurt und Berater für Webcontrolling. Im September wurde er „Deutschlands bester Conversion-Optimierer 2018“. Er lehrt das Themenumfeld Conversion-Optimierung, Usability und Webanalytics im Studiengang E-Commerce. Zuvor war er viele Jahre in einem internationalen Multi-Channel-Unternehmen in diversen Führungspositionen tätig, zuletzt als Bereichsleiter E-Commerce.

Mehr von diesem AutorArtikel als PDF laden

Sie wächst und wächst und wächst – die SMX als deutsche Leitkonferenz für Search und alles, was dazugehört. Diesmal fanden sich über 1.500 Fachbesucher in der Messe München ein, um von nationalen und internationalen Speakern zu lernen, sich inspirieren zu lassen und letztlich auch erfolgreiches Networking zu betreiben. Neben den üblichen fünf Fachtracks (Bootcamp, SEO, SEA, Analytics & Data, Mobile) hatten dieses Jahr auch erstmalig die am Vorabend frisch verkündeten Gewinner der SEMY Awards (Deutscher Suchmarketingpreis) Gelegenheit, sich in einem eigenen Track vorzustellen. Am zweiten Konferenztag wurde dieser Track dann von fachlich ausgewiesenen Google-Mitarbeitern bestritten und man hatte die Gelegenheit, Fragen und Probleme direkt an die Quellen zu adressieren.

Standen 2015 noch Themen wie HTTPS, Linkbuilding, Mobile und Voice Search im Vordergrund, so lagen die Schwerpunkte diesmal zusätzlich auf Machine Learning und noch stärker auf dem Nutzer bzw. dessen eigentlichen Intentionen. Website Boosting war wie immer für Sie vor Ort und trug subjektiv wichtige Learnings zusammen.

Wie auch im letzten Jahr hielt Rand Fishkin die zentrale Keynote zu Beginn der Konferenz. Als Thema hatte er sich für die Botschaft exemplarisch den Back-Button des Browsers auserwählt: „Fight Back Against Back“. Diesen erklärte er zum größten Feind des Webmarketings. Da Google nun lernende Algorithmen (siehe dazu den Titelbeitrag „Rankbrain“ in der letzten Ausgabe der Website Boosting) verwendet, erkenne man dort, so Fishkin, zunehmend besser, welche Seiten das Suchinteresse des Users tatsächlich befriedigen und welche eben nicht.

„We talk about Algorithms that build Algorithms – without human intervention“; Rand Fishkin

Die Ära des Machine Learnings bei Google

Im Jahr 2012 war alles noch einfach: Die Anzahl Facebook-Likes führte dazu, dass die gewünschte Information im Newsfeed der Fans erschien. Dem Conversion Funnel wurde zwar Beachtung geschenkt, jedoch nur dem Besucheranteil, der tatsächlich konvertierte, obwohl bspw. 80 % der Besucher nach einer Preisinformation den Funnel verließen. Im Jahr 2012 begann die Ära des Machine Learnings („Prediction of Ad CTRs“). Mittels sog. Supervised Learning, also überwachten Lernens, können die Algorithmen kontinuierlich verbessert werden. Das System wird über Inputvariablen und eine manuelle Entscheidung hinsichtlich guter/schlechter Qualität von Webseiten trainiert und findet dadurch Muster, welche zukünftig auf unbekannte Seiten angewandt werden können. Das Besondere an Deep Learning ist, dass ein Unsupervised Learning stattfindet, d. h., der Algorithmus entwickelt seinen eigenen Algorithmus – kontinuierlich und ohne notwendige manuelle Unterstützung bspw. durch Quality Rater. Google ist in diesem Zusammenhang nicht in einer exponierten Sonderstellung, Facebook, Instagram und Twitter nutzen ebenfalls Machine-Learning-Methoden.

Was bedeutet dies für Webseitenbetreiber? Nutzer-Engagement wird einer der wichtigsten Faktoren. Google Suggest, Chrome Autocomplete, Trending Content in Social Networks, Klassifizierung in Google Mail – Websites erwerben lt. Fishkin eine „Engagement-Reputation”, welche die Sichtbarkeit bei Google bestimmt. Jeder Klick auf den „Back-Button” bzw. negative Klassifikation reduziert die Reputation

Maschinen bewerten die Arbeit – User-Engagement als bedeutsamste Metrik

Fishkin wies die Zuhörer darauf hin, dass nicht nur Google solche selbstlernenden Algorithmen einsetzt, sondern z. B. auch Facebook, Twitter oder Instagram. Dort geht es jeweils darum herauszufinden, welche Beiträge man in die Timelines der User setzt. Anhand der verschiedenen Reaktionssignale der User auf die Beiträge kann dann dieser Stream ständig weiter optimiert werden. Selbst bei der Analyse bzw. Beurteilung der Qualität von Newslettern würden heute Methoden des Machine Learning eingesetzt. Wenn man diese Kriterien nicht erfüllt, kann es schnell „You are out“ heißen, betonte er.    

Dies ist auch der einfache Grund, warum Postings von Unternehmen in der Regel noch nicht mal bei fünf Prozent ihrer oft per Gewinnspiel gekauften „Fans“ in die Timeline gelangen. Niemand reagiert oder interagiert mit den meist belanglosen Werbeabsonderungen von hinsichtlich Social Media oft noch untalentierten Werbeabteilungen. „Engagement is becoming the Web´s Universal Quality Metric“, warf Fishkin an die überdimensionale Beamerwand. Das ist zwar prinzipiell nichts Neues, aber auch 2016 muss man das vielen Webmarketers erneut mit einem dicken Eddingstift ins Aufgabenheft schreiben. Jedes Mal, wenn ein Besucher den Back-Button (gemeint ist ein Rückklick zu Google) klickt, sinkt die Reputation, betonte Fishkin.

„The Machines are judging us … Let´s show ´em what we got“; Rand Fishkin

Welche Möglichkeiten gibt es, um die „Engagement-Reputation“ zu erhöhen?

  1. Man muss die Absichten und Bedürfnisse der Besucher verstehen und sie befriedigen. „Verwandte Suchanfragen“ am Ende der Suchergebnisse bieten eine gute Ausgangsbasis für möglicherweise unbeantwortete Fragestellungen der Besucher. Es empfiehlt sich, dort unten einfach mal nachzuschauen.
  2. Man muss die CRT (Click-Through-Rate) in den Suchergebnissen durch gute Textsnippets steigern. Durch die „Snippet-Optimierung“, d. h. Titel, URL, Description, ggf. Datumsangabe (= aktueller Inhalt?) gestaltet man die Darstellung bewusst einladender. Einen Bonus bekommt man durch die Bekanntheit der Marke bzw. des Domainnamens.
  3. Man muss das „Rauschen“ auf allen Kanälen vermindern: „Better“ > „More“
  4. Eine gute Nutzererfahrung zu erzeugen, muss oberstes Prinzip beim Marketing sein/werden. Den Fokus sollte man daher v. a. auf wirklich hochwertigen Content und die Ladezeit der Website legen, die Benutzeroberfläche gerätespezifisch gestalten, Interaktion & Sharing forcieren und vor allem Ablenkungen vermeiden.
  5. Überzeugende Call to Actions gehören bereits ganz oben an den Conversion-Trichter und nicht erst in die Bestellstrecke.

Menschen sind unterschiedlich – warum werden sie dann auf Websites alle gleich behandelt?

André Morys, der am Vortag zur „Online-Marketing-Persönlichkeit des Jahres“ gewählt wurde (alle Gewinner sind übrigens einsehbar unter semyawards.com), erklärte in seinem Vortrag, wie die Erkenntnisse der modernen Konsumpsychologie genutzt werden können, um mehr Personalisierung in mehr Konversionen umzusetzen (siehe dazu auch den Teil seiner aktuellen Serie in dieser Ausgabe). Über ein Scoring-System mit fast 200 Kriterien lassen sich unter Zuhilfenahme von Echtzeitanalysen Klassifizierungen vornehmen, die eine spezifischere Kundenansprache erlauben. Dafür könne man vergleichsweise einfache Systeme einsetzen und brauche kein aufwendiges Hadoop-Cluster-System. So werde ein „Balance“-Typus eher auf Werterhalt und Beständigkeit in einer Argumentationskette ansprechen, während z. B. ein dominanter Besucher darauf achte, ob er mit einem Produkt eher aus der Masse hervorsteche.

Ein guter Autoverkäufer, so Morys, taxiere und schätze seine Kunden vor Ort oft intuitiv oder geschult blitzschnell ein und benutze gezielt Argumente, die einen hohen Fit mit seiner Denkwelt und seinen Absichten bewirken können. Auf Webseiten werde hingegen noch immer text- und bildlich so getan, als seien alle Besucher gleich. Im einfachsten Fall könne man das sogar von definierten Referrern ableiten. Wer z. B. über Geizhals.de in einen Shop komme, habe ganz augenscheinlich die Absicht, möglichst billig einzukaufen. Während ein Balance-Typ Dinge wie „Bonuspunkte sammeln“ gut finde, erhöhe sich die Anzahl der frühzeitigen Einlogger (Anmeldung im Shop) für Dominanztypen eher mit Textanreiztreibern wie „schneller bestellen“ oder „persönliche Angebote freischalten“. „Vorteilskommunikation“ nannte Morys diese Art der Ansprache.

„Sie bestimmen, wann wir liefern“ für dominante Menschen – „Sie erhalten Ihr Paket auf Wunsch zu einem Zeitpunkt, der Ihnen lieber ist“ für den Balance-Typ; André Morys

Wenn Shopbetreibern nichts mehr einfalle, gebe man den Nutzern einfach Geld, pointierte Morys und stieg in einen fiktiven Dialog ein: „Willst du nicht meinen Newsletter abonnieren?“ – „Näää, ich weiß nicht. Da ist sicher lauter Werbung drin.“ – „Komm her, kriegst auch 5 Euro als Gutschein“. 

Infos und Tipps direkt von Google

Wie jedes Jahr waren die beiden Sessions von John Müller von Google sehr gut besetzt. Er hatte sich wieder bereit erklärt, einige vorab gemeldete Websites einer Beurteilung zu unterziehen. In dem anderen Vortrag widmete sich der bei Google für europäische Webmaster zuständige Experte der „Relaunchophobie“ und zielte damit auf die Angst vor Überarbeitungen der eigenen Website in Bezug auf Veränderungen beim Ranking in Suchmaschinen. Bei Änderungen inhaltlicher Art oder den Pfadstrukturen müsse man natürlich mit Auswirkungen rechnen. Bei reinen Protokoll- oder Host-Änderungen weniger. Als Tipp gab Müller den Webmastern die Empfehlung, bei einem Relaunch möglichst viel vorab zu dokumentieren. Das helfe später, bei Problemen schneller Abhilfe zu schaffen. Oft werde bei Protokolländerungen (Übergang auf HTTPS) oder dem Hostwechsel vergessen, diese Änderungen auch in der Search Console von Google anzumelden. Die Parameter für das Geotargeting, entfernte URLs, Benutzerberechtigungen oder auch ein hochgeladenes Disavow-File müssen eben auch mit „umgezogen“ oder angepasst werden. Er empfahl auch, einen neuen Host auf vorherige Webspam-Probleme zu prüfen. Wer eine Rankingstrafe erhalten habe, könne diese in der Regel nicht durch den einfachen Austausch des Domainnamens beheben.

Eine Schritt-für-Schritt-Anleitung dazu findet man bei Google. Mit wesentlichen Änderungen an den URLs siehe einfach.st/miturl und ohne solche Änderungen unter einfach.st/ohneurl.

Bei einem Wechsel auf eine neue Domain solle man auf der alten Domain die Sitemap entsprechend mit den Weiterleitungen auf die neuen Adressen versehen und das „lastmod“-Datum aktualisieren. Ggf. helfe es auch bei größeren Sites, kurzfristig die Serverkapazität aufzustocken, damit die vielen zusätzlichen Crawls von Suchmaschinen schnell abgearbeitet werden können. Bemerken die Robots nämlich, dass sie die Serverantwortzeiten durch ihre Crawls negativ beeinflussen, vermindern diese automatisch die Frequenz, um diese einseitige Belastung niedrig zu halten. Das Aktualisieren dauere dann dementsprechend länger.

Selbstverständlich solle die neue Struktur bereits vor dem Go-Live ausführlich getestet werden. Müller wies darauf hin, dass gerade beim Einsatz von JavaScript-Frameworks und „progressiven Web-Apps“ noch sehr viel ausführlicher getestet werden solle, ob die neuen Techniken auch wirklich von den Robots verstanden und aufgelöst werden können. Gerade blockierte Ressourcen (zu sehen als Hinweis in der Search Console) machen oft Probleme. Wenn z. B. eine JavaScript- oder CSS-Datei im robots.txt-File gesperrt wurde, kann Google die Seite nicht rendern und damit fehlen auch Kriterien für die Beurteilung des Rankings. Wer alte Seiten per 301-Weiterleitung statt auf inhaltliche Ersatzseiten auf die Startseite umleite, erzeuge damit bei Google intern einen sog. Soft-404-Fehler. Das bringe laut Müller keine Vorteile hinsichtlich der Weitergabe von PageRank. Das sei auch korrekt so, denn Backlinks auf Unterseiten werden in der Regel wegen des dortigen Contents gesetzt. Wer glaube, die so per Link erzeugte „Reputation“ für eine Detailseite einfach per 301 auf die Startseite leiten zu können, irre also. Trotzdem sei das noch immer gängige und häufig zu findende Praxis bei Suchmaschinenoptimierern.  

Bei den von ihm getesteten Sites waren auffällig häufig Fehler bei der Implementierung des Hreflang- (zur Steuerung von Sprach- und Länderversionen einer Webseite) und des Canonical-Tags (zur Anzeige einer Originalquelle und möglicher Duplikate) zu finden. Wenn das X-default-Tag für die Startseite fehlt, kann das z. B. auch zu falschen Sprachversionen in den Suchergebnissen führen. Beim TÜV Rheinland fand Müller heraus, dass man dort alle Seminarseiten durch auf eine Liste zeigende Canonical-Tags von der Indexierung ausgenommen hatte. Eines der Kernangebote des TÜV ist somit gar nicht bei Google zu finden.   

„Automatische Übersetzungen sind eben nicht besser, als gar nichts zu haben“

„Holzböden, Nut-und-Feder-Kathedrahle Decken und ein Kamin im Wohnbereich eine warme, rustikale Atmosphäre zum Chalet. New rustikalen Hickory Schränke und SS Geräte markieren Sie den kithen auf der Hauptebene und einer Küchenzeile in der unteren Ebene.“ Alles klar? Diesen Text hatte Müller bei seiner Analyse auf einer Website gefunden. Solche automatisierten Übersetzungen quälen Besucher und werden von Google daher konsequent als Spam klassifiziert. Die Vermutung, automatisch übersetzter Text sei besser als gar keiner, wird wohl nur vom Sitebetreiber als tauglich gesehen, weil man eben die mehr als mangelhafte Qualität wirklich nur als Muttersprachler beurteilen kann.   

In der anschließenden Diskussion wies Müller nochmals darauf hin, dass der Googlebot bei 301-Weiterleitungen max. fünf aufeinanderfolgenden Weiterleitungen folgt und danach abbricht. Erst bei nachfolgenden Crawls gehe der Bot dann wieder fünf Schritte tiefer. Die Anzahl der Weiterleitungen hat im Übrigen keinen negativen Einfluss auf die Weitergabe von Linkpower, stellte Müller dann gegen Ende klar.  

Housekeeping bei Backlinks

Kaspar Szymanski, ein ehemaliger Mitarbeiter des Google-Spamteams in Dublin, gab in seiner Session wertvolle Einblicke, wie man vernünftig Linkaudits durchführt, um die eigene Site rechtzeitig vor Strafen zu bewahren oder bei verhängten Strafen wieder entsprechend zu säubern.

„99 % aller manuell von Google verhängten Strafen werden linkbasiert vergeben“, Kaspar Szymanski

Er gab den Tipp, die Backlinks regelmäßig aus möglichst vielen Quellen/Tools zu ermitteln und zu sichern. Die externen Linkangaben in der Search Console von Google werden umso häufiger aktualisiert, je häufiger man sie als Webmaster downloade, so Szymanski. Man solle diese daher vor allem auch regelmäßig von dort abholen, zumal sie dort mit einem Datum versehen seien. Bezüglich der Ausschlüsse im Disavow-File gab er den Rat, besser „mit der Axt statt mit einem Skalpell“ zu arbeiten. Damit meinte er, immer besser gleich eine Domain zu entwerten als eigene URLs einer Domain. Dieses File, in dem man sich durch entsprechende Einträge von Backlinks „distanzieren“ kann, könne und solle man auch präventiv und ohne bereits verhängte Strafe pflegen bzw. hochladen. Dabei müsse man im Kopf behalten, dass es immer nur einen Vorschlag an Google darstelle, dem die Maschine nicht unbedingt folgen müsse. Backlinks für echten Traffic zu kaufen, stelle keinerlei Problem dar, solange der entsprechende Link mit „nofollow“ gekennzeichnet sei. Viele Webmaster übersehen die nicht unwahrscheinliche Tatsache, dass in der Vergangenheit ohne ihr Wissen Backlinks künstlich aufgebaut wurden. Das könne durch Mitarbeiter veranlasst worden sein, die längst nicht mehr im Unternehmen tätig seien, oder auch durch eine übereifrige Agentur, ohne dass das explizit abgesprochen oder gar dauerhaft auffindbar dokumentiert wurde.

„We didn´t build these links!“ – oft gehört, ehrlich gemeint, aber nicht immer auch wahr.

Einzelne eingehende Links, die vielleicht dubios wirken, verursachen laut Szymanski so gut wie niemals Probleme. Viele Domains haben vereinzelt solche Backlinks. Es sei immer die Summe bzw. das Linkprofil als Ganzes, das ab dem Überschreiten einer gewissen Grenze zu Problemen führen könne.   

Korrelation ist nicht Kausation!

Tatsächlich oder vermeintlich neue Erkenntnisse zu möglichen Rankingsignalen sind wahre Aufmerksamkeitsmagnete. Mittels Studien werden mögliche Rückschlüsse aus Beobachtungen belegt. Doch sind diese wirklich valide oder nicht das Ergebnis diverser Einflussflussfaktoren wie bspw. eines Newbie-Bonus von Sites, permanenter Google-Positionstests, Uniqueness von Content, täglicher Anpassungen des Google-Algorithmus, der Crawling-Reihenfolge etc.? Und schließlich ist man beim Ranking nicht alleine. Hat sich eine Seite im Ranking nach oben bewegt, weil man eine positive Veränderung vorgenommen hat? Kann man mit Tests von neuen Domains, künstlichem Text und künstlichen Suchworten, die es eigentlich gar nicht gibt, wirklich von den beobachteten Rankings auf das „reale“ Rankingleben schließen, wo es mehrere Hundert Algorithmen gibt, die teilweise aufeinander aufbauen und ineinandergreifen? Vielleicht ja – nicht selten bestehen aber solche Experimente den Härtetest eben gerade nicht.

„Ständig mit immer den gleichen Methoden Vermutungen bestätigen zu wollen, ist keine gute Teststrategie!“

Daher müsste konsequenterweise eine Falsifikation stattfinden, um wirklich einen zulässigen Rückschluss auf Signalwirkung bestätigen zu können (Abbildung 7). Eine Rankingverbesserung kann schlussendlich auch nur deshalb stattfinden, weil die darüber  bzw. die darunter liegende Seite „plötzlich“ andere Rankingsignale sendet. An Ende hat man sich vielleicht nur wegen einer Abwärtsbewegung eines anderen Suchergebnisses selbst nach oben bewegt, obwohl man eigentlich eine falsche Optimierungsmaßnahme vorgenommen hat? Ohne den „Absturz“ der anderen Seite hätte man vielleicht sogar ein negatives Signal bekommen. Was sollte man daher mindestens prüfen, wenn man eigene Rankingstudien oder Tests durchführt?

  1. Man verändert ein Signal und das Ranking steigt. Dabei müssen wesentliche Parameter der anderen, mitrankenden Seiten mithilfe von Tools überwacht werden. Sind diese inhaltlich unverändert geblieben und hat sich auch die Domain nicht wesentlich umstrukturiert, z. B. durch neue Seiten? Sind die externen Signale (i. W. Backlinks) einigermaßen stabil geblieben? Haben sich hier schon einfach erkennbare Änderungen ergeben, muss man das Experiment eigentlich bereits verwerfen. Auch zu beachten: Gab es während der Testzeit Updates bei Google? „Ceteris paribus“ bedeutet: unter sonst gleichen Umständen. Eben diese gilt es im Auge zu behalten.
  2. Nach einiger Zeit macht man die Änderungen wieder rückgängig. Nun müsste sich das Ranking wieder entsprechend verschlechtern. Die unter 1. genannten Rahmenbedingungen sind natürlich auch hier zu beachten bzw. zu überwachen. Ändert sich das Ranking trotz der Rücknahme nicht, war die getestete Maßnahme wahrscheinlich gar nicht ursächlich für die Positionsverbesserung.
  3. Um ganz sicherzugehen, fügt man die Änderung aus 1. dann wieder ein. Bewegt sich das Ranking nun wieder nach oben, ist man zwar nach wissenschaftlichen Kriterien noch lange nicht valide mit einem Rückschluss. Aber praktisch gesehen liegt die Fehlerquote hier schon sehr niedrig und eine komplette Laborumgebung („ceteris paribus“) lässt sich im Web sowieso niemals herstellen.

Der Kernpunkt dabei ist: Statt ein vermeintliches Rankingsignal immer und immer wieder positiv zu testen, bringt die sog. Falsifikation meist deutlich mehr Erkenntnis. Dabei versucht man, statt einer erneuten Bestätigung im Versuchsaufbau die Vermutung bzw. Hypothese gezielt zu Fall zu bringen, um zu erkennen, wo und ab wann sie eben nicht mehr gilt.

Searchmetrics erstellt jedes Jahr eine eigene und umfassende Studie für Rankingfaktoren (Download für 2015 kostenlos unter einfach.st/smrs1). Marcus Tober, Gründer von Searchmetrics, erläuterte die Berechnungsgrundlagen der Studie und offenbarte einen branchenspezifischen Einfluss auf Korrelationen sowie die Sonderstellung von Wikipedia in den Suchergebnissen: Bei jedem vierten Keyword zeigt Google an den Suchergebnis-Positionen 1 und 2 ein Wikipedia-Ergebnis an. Die exponierte Position von Wikipedia wurde von ihm und seinem Team durch eine getrennte Betrachtung des Keyword-Sets mit und ohne Wikipedia-Ergebnisse ermittelt. Zusätzlich wurde das Keyword-Set getrennt nach drei Branchen (Finanzen, Gesundheit, E-Commerce) betrachtet und entsprechende Korrelationen berechnet. Gemessen am Searchmetrics-Relevanz-Score, eine Kennzahl, welche die Beziehung zwischen User-Intention und relevantem Inhalt ausdrückt, weichen die Ergebnisse von Wiki-URL und Nicht-Wiki-URL drastisch voneinander ab. Des Weiteren gibt es bspw. eine positive Korrelation (0.20) zwischen Backlinks und der Rankingposition bei E-Commerce-orientierten Seiten, wohingegen keine Korrelation (0.02) in der Finanzbranche ermittelt werden konnte (Abbildung 8).

Die Erkenntnisse von Tober unterstützen die Notwendigkeit einer validen Datenbasis und verdeutlichen gleichzeitig, wie risikobehaftet globale Aussagen zu Faktoren letztlich sind. Ein Blick in die Studie (http://einfach.st/smrs2) ist sicherlich sehr lohnend.

Mobile Usability – User first! Be relevant!

Das Nutzungsverhalten unterliegt einem Wandel: Konversationen mit Google anstelle der Website mit Links nehmen zu. 74 % der Bevölkerung in Deutschland besitzt ein Smartphone, mehr als vier von zehn Teenagern haben drei Geräte. „Mobile“ ist Teil unseres Lebens, die Suche nach WIFI wird zum wichtigen Bestandteil menschlichen Verhaltens. Mobile friendly bedeutet nach Bas van den Beld mehr, als nur die Webseite mobil anschauen zu können, es geht um das weiterführende Verstehen des Nutzers bzw. der Nutzung (Abbildung 9). Wo wird das mobile Device genutzt? Wie wird das Device genutzt? Dabei wird immer wieder vergessen, an die Nutzer zu denken: User first und nicht Mobile first! Was lieben die Kunden, was tun die Kunden, was wollen die Kunden? Van den Belds Credo: UX = Mobile Friendly, Mobile is the experience! Make it experience friendly!

Cindy Krum komplettierte die Mobile-Usability-Session mit sehr konkreten Tipps.

  1. Mobile Nutzer erwarten eine geringe Ladezeit einer Webseite: 57 % werden abspringen, wenn diese mehr als drei Sekunden benötigt. Schnelligkeit wird auch beim Ausfüllen von Formularen (bspw. Autocomplete) sowie im Check-out erwartet (bspw. 1-Klick bzw. Zahlarten wie Paypal, Apple Pay). Tooltipp: www.webpagetest.org
  2. Aufbereitung/Lesbarkeit: Mittels Auszeichnung durch Schema.org können Ergebnisse besser dargestellt und damit nutzbar gemacht werden. Schriften sollten in der Größe an das jeweilige Gerät skalieren. Werbe-Interstitials als Motivation zur App-Installation sollten kritisch hinterfragt werden.
  3. Cross Device beachten: E-Mail bzw. Social Media werden verstärkt mobil genutzt. Daher sollte man den Vorschautext auf diversen Geräten überprüfen und ggf. anpassen. Tipp: Vorschautext per Code bestimmen (siehe Abb. 10).
  4. Lokalisierung/Personalisierung: Klare und hilfreiche Fehlermeldungen (in der gewünschten Sprache), Fragen zur richtigen Zeit stellen. Auch die Umstände des spezifischen Standortes des Users und die damit verbundenen individuellen Suchergebnisse sollte man immer im Auge haben.

Niemand schläft beim ersten Date mir dir (bis auf wenige Ausnahmen)

Ein Feuerwerk an Optimierungen von Google Analytics zur Messung des Contents einer Website zündeten Dave Sottimano und Simo Ahava. Webseitenbetreiber sollten wissen, welcher Content von den Besuchern gesehen wird und wie dieser in der Customer Journey zum Erfolg beiträgt. Die Journey zu kennen, ist wichtig, da der Abschluss beim ersten Kontakt sehr unwahrscheinlich ist (wie auch beim ersten Date, so Avinash Kaushik). Möglichkeiten zur Messung des Scrollverhaltens bietet z. B. ein Plug-In (http://scrolldepth.parsnip.io), welches Events bei Überschreiten von 25 %, 50 %, 75 % und 100 % der Seitenlänge in Analytics generiert.

Neben dem Scrollverhalten ist bedeutsam, wie stark ein Besucher mit der Website interagierte. Mittels des Google-Tag-Managers können Metriken geniert werden, welche bspw. zeigen, wie lange ein Nutzer wirklich auf einer Webseite aktiv war (mittels Messung der Mausbewegungen), welcher Tab im Browser aktiv war und welcher Teil des Textes tatsächlich gelesen wurde – die Betrachtung des Funnels vom Pageview bis zum gelesenen Content. Auf Ahavas Blog sind die notwendigen Schritte zur Messung des aktiven Tabs im Browser (http://einfach.st/ahava2) bzw. Content-Engagement einfach.st/simo2) detailliert erläutert. Gerade die Idee, Content als Enhanced E-Commerce zu messen (http://einfach.st/simo), ist skurril und gleichzeitig genial.

Machine Learning: How to?

Das Thema „Machine Learning“ war auf der SMX insgesamt sehr präsent. Leider ist es nicht so einfach, wie es auf den ersten Blick klingt. Tools, APIs und Lernhilfen wurden in einer eigenen Session für „Geeks“ präsentiert. Als Ausgangspunkt/Überblick für ein Eigenstudium dieser Materie auf Hochschulniveau empfiehlt sich bspw. ein Kurs der Carnegie-Mellon-Universität (http://einfach.st/cmu2). Jan-Willem Bobbink erläuterte, wie durch diverse API-Tools (http://einfach.st/api9) bspw. automatisiert Hotelbewertungen von Websites extrahiert und einer Sentimentanalyse unterzogen werden können. Automatische Texterstellung ist dabei nur ein weiterer Teilaspekt, der maschinelles Lernen ermöglicht – gleichzeitig Zukunftsvision und gelebte Realität.

Alles in allem gehört ein SMX-Besuch sicherlich auf die Timeline wissenshungriger Online Marketers. Durch die Breite der Themen und die ausgewiesene Expertise vieler Speaker sind gute Learnings praktisch garantiert.