Data Driven Business: Drei in an Weggla!

Mario Fischer
Mario Fischer

Mario Fischer ist Herausgeber und Chefredakteur der Website Boosting und seit der ersten Stunde des Webs von Optimierungsmöglichkeiten fasziniert. Er berät namhafte Unternehmen aller Größen und Branchen und lehrt im neu gegründeten Studiengang E-Commerce an der Hochschule für angewandte Wissenschaften in Würzburg.

Mehr von diesem AutorArtikel als PDF laden
Tobias Aubele
Tobias Aubele

Dr. Tobias Aubele ist Professor für E-Commerce an der Hochschule für angewandte Wissenschaften Würzburg-Schweinfurt und Berater für Webcontrolling (u. a. „Deutschlands bester Conversion Optimierer 2018“ sowie „CRO Practitioner of the year 2020“). Er lehrt das Themenumfeld Conversion-Optimierung, Usability und Webanalytics im Studiengang E-Commerce. Zuvor war er viele Jahre in einem internationalen Multi-Channel-Unternehmen in diversen Führungspositionen tätig, zuletzt als Bereichsleiter E-Commerce.

Mehr von diesem AutorArtikel als PDF laden

Unter dem Motto „Data Driven Business Week“ fanden am 4. und 5. November gleichzeitig drei wichtige Konferenzen, die sich den Themen Analyse, Prognose und Optimierung widmeten, im geschichtsträchtigen Hotel Adlon direkt am Brandenburger Tor statt: die Conversion Conference, die eMetrics sowie die Predictive Analytics World. Die Veranstalterin Sandra Finlay von Rising Media fuhr auch diesmal für die knapp 500 Teilnehmer internationale Experten wie Tim Ash, Jim Sterne, Dean Abbot und viele andere in über 60 Sessions auf. Als Fazit der zwei Tage darf man festhalten, dass jeder, der Online-Business verantwortet und diese Konferenzen versäumt hat, tatsächlich etwas Wichtiges verpasst hat. Statt nur auf ständig neue Visitors zu schielen und für deren Herankarren zu bezahlen, wurde in mehreren Tracks und klugen Vorträgen gezeigt, wie man aus den schon bestehenden Kunden und Besuchern mehr Gewinn generiert – weil diese Methoden sich vergleichsweise kostengünstig umsetzen lassen. Website Boosting hat sich für Sie gleich auf allen drei Konferenzen umgesehen und gibt einen kleinen Einblick in einige der wichtigsten Learnings der aktuellen Chancen der Datennutzung.   

Die Konferenz Predictive Analytics World wurde von Prof. Peter Gentsch mit einem Vortrag eröffnet, der einen breiten Blick auf die Möglichkeiten von Predictive Analytics bot. Mittels vieler Beispiele aus der Forschung und Praxis zeigte er, wie insbesondere Social Media hervorragende Prädiktoren sind. Werden in einer Datenbank nur sozioökonomische Kriterien wie Alter, Familienstatus, Kinderanzahl, sozialer Status, Tierliebhaber etc. betrachtet, sind Prinz Charles und Ozzy Osborne nicht zu unterscheiden. Reichert man diese Daten mit Social-Media-Informationen an, so können diese Personen eindeutig identifiziert werden.

Laut einer aktuellen Studie der Universität Cambridge kann mittels einer Analyse von Facebook Likes sehr gut eine Aussage über den IQ, das Alter, das Geschlecht sowie die sexuelle Neigung der Person getroffen werden. So lässt bspw. ein Like bei „Mozart“ oder „Herr der Ringe“ auf einen hohen IQ schließen (Studiendownload als PDF unter einfach.st/cambr1). Anhand von Textanalysen kann z. B. das Geschlecht eines Menschen erkannt werden, da sich die von Männern und Frauen verwendeten Worte messbar unterscheiden.

Darüber hinaus zeigte Gentsch, wie Social-Media-Analysen als Frühwarnsystem genutzt werden können. Typischerweise startet ein sog. Shitstorm in der Online-Welt, ehe der Inhalt von Offline-Medien wahrgenommen wird und später dort seine größte Aufmerksamkeit erreicht. Die Reaktions- und Deeskalationsmöglichkeiten für Unternehmen sind am vielfältigsten, wenn bereits schwache Signale frühzeitig wahrgenommen werden.

Das Erkennen von Signalen durch Zeitverlaufsbetrachtung, vor allem bei Social Media, und die daraus abgeleitete Trendvorhersage war ein weiterer Bestandteil seines Vortrages. Ein Beispiel war die Phrase „Merkel Yeah!“, die plötzlich in der Wahl 2009 aufkam. Obwohl dies erst ein schwaches Signal war, wurde es durch den Zeitvergleich gut erkennbar, als Trend frühzeitig sichtbar und Reaktionen waren rechtzeitig planbar.

Was soll überhaupt getestet werden?

Einer der häufigsten Fehler beim Testen ist, dass einfach drauflosgetestet wird, so Matthew Curry von der LH Group. Und tatsächlich wurde dieser Fehler zum Teil sogar von Vortragenden während der Konferenz unfreiwillig bestätigt. Da verschob man Buttons, änderte Texte und Bilder und präsentierte stolz veränderte, meist verbesserte Conversion-Rates. Unter dem Strich mag das durchaus eine positive Erfahrung sein: Selbst relativ planloses Testen bringt bereits mehr Verkäufe. Nur anfangen muss man halt irgendwann damit. Curry empfahl zusätzlich, durchaus auch den Test zu testen. Mit anderen Worten sollte man sich kritische Gedanken machen, ob man tatsächlich das Richtige misst. Funktioniert das Bild des roten Apfels oder das einer Birne besser? Allerdings unterscheiden sich beide Obstarten eben nicht nur in der Form, sondern auch in der Farbe. Wirkte im A/B-Test die Frau oder der Mann besser? Oder war es deren Kleidung, die den Besucher entscheidend beeinflusste?

Do it yourself – forget „Best Practice“

Man solle Tests selbst durchführen, riet der „Head of User Experience“ des Reiseveranstalters TUI, Philipp Busse. Wenn man auf andere (Abteilungen) warten muss, kann das oft sehr frustrierend und vor allem zeitraubend sein. Umgekehrt kann Testen süchtig machen und er hat sich mit diesem Virus infiziert. Man brauche z. B. 30 Minuten für das Einrichten eines Tests und sehe sofort, dass sich da etwas tut. Und schon nach kurzer Zeit könne man damit – gute Hypothesen vorausgesetzt – mehr Umsatz einfahren. Selbst einfache Farbänderungen brächten schon bis zu 3 % bessere Conversions, so Busse.

Die Wirkungen von Änderungen sind dabei immer individuell. Auf der eigenen Landingpage kann ein sich bewegender Sliderbutton durchaus funktionieren, während das auf anderen Seiten störend und damit konversionshemmend sein kann. Daher solle man sich nicht allzu sehr auf die überall gezeigten „Best Practices“ verlassen. Dazu sind die Seiten, die Absichten und Ziele, die Besucher und auch die Besuchssituation und der -kontext zu verschieden. Erkenntnisse erlangt man tatsächlich nur durch Ausprobieren. Bei TUI gehen täglich die eingehenden Nutzerkommentare zur Website gesammelt an alle Beteiligten. Das schärfe den Blick aller auf die gesamten Prozesse und natürlich auch auf das Optimierungspotenzial, erklärte Busse.

„Es gibt nichts, was für Kunden so selbstverständlich ist, dass man es nicht testen müsste!“ Philipp Busse

Auch Matthias Blaß von der Hanseatic Bank berichtete über schnell zu realisierende Erfolge. Man erreichte zum Teil fast 12 % mehr Conversions durch Veränderung der Anzahl an Bulletpoints auf der Landingpage. Fast 60 % waren durch Textänderungen zu holen. Hier hatte der animierte Sliderbutton entgegen der klassischen Lehrmeinung der Experten den höchsten Erfolg, berichtete Blaß. Das Ausblenden der Navigation brachte über 15 % Lift-up, aber auch Veränderungen in der Prozessvisualisierung in der Antragsstrecke hatten mehr als 12 % positive Wirkungen. Eine pfiffige Idee war sicherlich, dem User beim Verlassen der Seite während eines Antrags eine Warnbox anzuzeigen, die darauf aufmerksam macht, dass damit möglicherweise alle bisherigen Einträge verloren gingen. Damit wollte man Fehlbedienern eine letzte Chance geben – und siehe da, knapp 20 % der Abbrüche konnten damit verhindert werden. Hier liegt wohl die Schlussfolgerung nahe, dass tatsächlich jeder fünfte Antragsteller das Formular aus Versehen geschlossen hätte. Mit dieser Erkenntnis darf man dann aber nicht zufrieden sein und muss – und das sind wiederum die tieferen Learnings – die eigentliche Ursache für diese hohe Fehlbedienungsrate suchen und abstellen.

Juliane Hartmann von SETO zeigte anschließend in einem Koreferat, dass bei der Fehlersuche oft nur die Einzelanalyse hilft. Durchschnittswerte decken Fehlerquellen ab und verbergen die wahren Ursachen für Conversion-Probleme nicht selten. Ein Beispiel: Bei einem Formularfeld wurde eine Fehlermeldung angezeigt. Nach einer Neueingabe bzw. Verbesserung durch den Nutzer verschwand aber die Fehlermeldung nicht sofort, sondern erst nach dem erneuten Absenden des Formulars. Bereits hier scheitern abschlusswillige Besucher, weil sie der Meinung sind, wegen ihrer individuellen Daten (auch wenn sie korrekt sind) ginge es hier nicht weiter oder das Formular wäre insgesamt fehlerhaft. Und was tun sie? Sie brechen ihren Antrag ab. Hier wird dann auch die Werthaltigkeit von Einzelanalysen (z. B. über Video- bzw. Bildschirmtracking) transparent: Über klassische Trackingdaten wird die eigentliche Ursache solcher Abbrüche nicht erkennbar.   

„Der Teufel steckt oft im Detail.“ Juliane Hartmann

Rechtliche Stolpersteine

Dr. Martin Schirmbacher gab den Teilnehmern einige wertvolle rechtliche Tipps mit auf den Weg. So können kleine Übertreibungen bei eigenen oder modifizierten Produktbeschreibungen von Händlern wie „extrem haltbar“ durchaus Probleme machen, sofern sie nicht durch eigene Tests ermittelt oder durch den Hersteller abgesegnet wurden. Hier müssen sich insbesondere die SEO-motivierten (Um-)Texter vorsehen, die nicht selten leichtfertig in guter Absicht vor sich hinschreiben, damit für die Suchmaschine besonders viel lesbarer Text entsteht.

Auch eine künstlich erzeugte Verknappung à la „nur noch 1 Stück lieferbar“ müsse umsichtig und vor allem ehrlich eingesetzt werden, rät Schirmbacher. Stellt ein Mitbewerber fest, dass hier mit gezinkten Karten gearbeitet wird oder das Produkt später plötzlich wieder auf Lager liegt, kann eine Abmahnung ins Haus flattern. Daher verwendet Amazon auch den Zusatz „mehr ist unterwegs“ – weil Bücher und andere Standardprodukte zwar knapp werden können, aber eben problemlos nachorderbar sind. Auch vor dem Werben um das Nutzervertrauen mit Fantasie-Siegeln, wie sie in einschlägigen Bilderarchiven für wenige Cent zu Hunderten zu haben sind, rät Schirmbacher ab. Es müssten nach seiner Einschätzung belastbare Kriterien vorliegen, ansonsten könne auch hier rechtliches Ungemach drohen.

Scam-Fight mit Predictive Analytics

Ebenfalls um das Erkennen von Signalen und daraus ableitbaren Aussagen zur Relevanz ging es im Vortrag von Mario Selk. Er präsentierte, wie Parship mittels Predictive Analytics potenzielles Scamming in der Partnervermittlung erkennt. Betrüger versuchen, über solche und ähnliche Plattformen Kontakt und ein Vertrauensverhältnis zu Personen aufzubauen, um sie später um finanzielle Unterstützung zu bitten. Selk zeigte in seinem sympathischen Vortrag, welchen Prozess Parship von der rein manuellen Überprüfung (Phase 0) hin zur datengetriebenen Realtime-Analyse (Phase 4) durchlaufen hat bzw. wird.

Waren es einst Scoringverfahren und Schwellenwerte bei Profileinträgen, die auffällige digitale Identitäten zur manuellen Prüfung weiterleiteten (Phase 1), sind es in den folgenden Phasen Data-Mining-Prozesse und statische Analysemodelle, welche potenzielle Betrüger frühzeitig erkennen. Aktuell werden durch logistische Regressionen Profile bewertet und bei Auffälligkeiten in Quarantäne verschoben bzw. manuell geprüft. Indizien für Missbrauch sind u. a. unnatürliche Klickmuster, (falsch) aus dem Englischen übersetzte Berufe („Selbstständige“) oder bestimmte zu häufig und immer wieder genannte Berufe, schnelle Klickraten bei Fragen (Nutzung eines Scripts) sowie unpassende Antworten auf Fragen in Formularen (bspw. „Woher kennen Sie uns?“ liefert „Papier“ oder „Hallo“ zurück).

Prof. Sven Crone stellte in seinem kurzweiligen Vortrag die Chancen und Herausforderungen der Prognostizierung am Beispiel des Elektrizitätsbedarfs dar. Insbesondere die Berücksichtigung von Faktoren wie Wochentag, Saison (bspw. Ostern), Temperatur und Ereignisse (Fußballspiele, royale Hochzeit) führen zu einer komplexen Natur der Stromverbrauchsvorhersage. Dabei gilt, dass jeder Prozentpunkt Prognosegenauigkeit zu Einsparungen in Millionenhöhe führt. Ähnliche Komplexität und entsprechende Optimierungspotenziale gelten u. a. auch für Einzelhändler oder Callcenter-Betreiber.

Einer Studie zufolge nutzen jedoch 43 % der Unternehmen für ihre Prognose sehr einfache Tools und Methoden wie Mittelwerte. Dabei könnte nach seiner Meinung der Bereich Prognose viel vom Data Mining lernen und damit eine Konvergenz von Data Mining und Forecasting stattfinden. Neuere Verfahren werden in der Praxis nicht genutzt und damit mehrere Jahrzehnte an Forschung ignoriert. Er fragte die Teilnehmer sehr plakativ, ob deren Fuhrpark immer noch aus Autos aus den 50er-Jahren bestehe. Den Hinweis „Erweitere deine Toolbox“ unterstützte er durch Erläuterung und Anwendung alternativer Methoden wie k-nearest neighbour. Und er gab weitere Einblicke in die Möglichkeiten der Verkaufsprognose neuer Produkte mittels Clusterbildung. Seine Frage, warum Unternehmen neuere Methoden nicht einführen, wurde mit mangelnder Erklärbarkeit, „Blackbox“ beantwortet. Sind jedoch Statistikprogramme wie SPSS nicht auch eine Blackbox und ältere statistische Verfahren wirklich erklärbar?, fragte Crone provokant – und hat damit natürlich mehr als recht. Es gibt keinen vernünftigen Grund, so sein Fazit, nicht neuere Methoden und Tools zur Erlangung genauerer Prognosedaten zu nutzen.

„Online-Marketing müsste umbenannt werden in Online-Sales!“ André Morys

Der Zalando-Effekt: Warum die Conversion-Strategie entscheidet

Was ist der Erfolgsfaktor von Zalando oder Amazon? Die Antwort „Agilität und Effektivität“ erläuterte André Morys von Webarts in seinem sehr anregenden und leidenschaftlichen Vortrag über den Einfluss der Strategie der Conversion-Optimierung. Vereinfacht gesagt geht es darum, Erfolg versprechende Tests in kurzen Zyklen durchzuführen – Kontinuität ist gefragt und damit eben keine Prozessdenke. Jeff Bezos, Gründer von Amazon, offenbarte selbst das Geheimnis des Erfolges: „If you double the number of experiments you do per year you´re going to double your inventiveness.“

Es stellen sich folglich zwei Fragen:

1. Wie kann ich die Anzahl meiner Tests erhöhen?
2. Welche Tests soll ich durchführen?

Eine mögliche Lösung der ersten Frage bietet der DMAIC-Prozess als Kernelement des Six-Sigma-Ansatzes aus dem Qualitätsmanagement (Define – Measure – Analyse – Improve – Control), der Conversion-Optimierung als kontinuierlichen Prozess im Unternehmen etabliert. Die Frage der „richtigen“ Tests kann bspw. durch das 7-Ebenen-Modell beantwortet werden, welches Morys in seinem Buch „Conversion Optimierung“ umfassend erläutert (siehe ebenfalls „Identifikation von Conversion-Killern“ in den Website-Boosting-Ausgaben 18, 19 und 20).

„Projektdenke zerstört den Deckungsbeitrag.“ André Morys

Im weiteren Verlauf erläuterte Morys noch mehr wichtige Punkte der Optimierung, welche er konsequent mit Praxisbeispielen untermauerte. Anhand Zappos.com (Kundenservice als Grundwert der Firmenphilosophie, welcher an diversen Stellen der Webseite kommuniziert wird) sowie Booking.com („you save more because you´re a booking Genius”) zeigte er positive Conversion-Trigger. Dell mit der Mitteilung „10 Fehler“ bei der Formulareingabe suggeriert dem Besucher hingegen eher: „Du bist doof!“ Darüber hinaus zeigte er anhand einer Case-Study, dass eine ganzheitliche Betrachtung der Optimierung notwendig ist. So hatte die Erhöhung der Conversion-Rate einer Testvariante auch eine Erhöhung der Retourenquote zur Folge. „Daten verraten nie die Ursache“, so Morys, es geht immer um das „Verstehen“.

„Wenn der Reifen platt ist, nützt es auch nichts mehr, den Druck zu messen.“ André Morys

Deshalb ist es wichtig, so Morys, den kompletten Prozess bzw. alle Daten in die Berechnung miteinzubeziehen und auf den Deckungsbeitrag zu optimieren.

Willst du mich heiraten?

Diesen Antrag machte Karl Kratz bei einem seiner beiden Vorträge einer Teilnehmerin – stilsicher mit Ring. Diese lehnte lachend ab. Er fragt erneut: „Willst du mich heiraten?“– mit derselben Antwort. Auch die folgende dritte Frage änderte die Meinung der jungen Dame nicht. Diese nur auf den ersten Blick seltsam wirkende Entgleisung rückte Kratz sehr schnell gerade, indem er dies auf Landingpages bezog: „Es ist Blödsinn, jemandem mehrmals dasselbe zu zeigen, wenn er mehrmals wiederkommt und auf ein anderes Ergebnis hofft.“ Daraufhin zeigte er seine Website für sein E-Book, die unter der gleichen URL bei jedem Wiederholungsbesuch mit anderen Argumenten versucht, den Besucher zu überzeugen. Die spätere Frage aus dem Publikum, ob das nicht technisch sehr bzw. zu aufwendig wäre, konterte Kratz mit dem Hinweis, dass hier 20 Zeilen Code ausreichen, „und die Sache ist geritzt“. Man könne dies durchaus selbst machen, indem man einem Techniker sage, dass er genau dies tun solle, z. B. drei unterschiedliche Zustände auf einer Webseite zu ermöglichen. Die Techniker könnten dies problemlos und schnell realisieren – man müsse es ihnen nur sagen bzw. es von ihnen verlangen.

Anhand einer seiner eigenen Website für Lebensversicherungen machte er dann mit einem weiteren Beispiel klar, was unter einer Inhaltsdynamisierung zu verstehen ist. Zunächst scrollte er in einem bestimmten Textbereich (Viewpoint) über die Absicherung der Familie im Todesfall auf der Seite mehrmals hin und her, um für die Maschine „dahinter“ Interesse für diesen Punkt zu simulieren. Beim anschließenden Scrollen an das Ende der Seite erschien ein familienorientierter Abschlusstext mit einer entsprechenden Grafik. Nun löschte er die Cookies auf dem Rechner und rief die exakt gleiche Seite erneut auf, hielt sich allerdings in einem anderen Textbereich länger auf. Beim anschließenden Scrollen an das Ende lief ein Raunen durch den Vortragssaal. Es erschien nun ein anderer Abschlusstext und auch eine andere, auf den oberen Verweilbereich angepasste Grafik.

Will ich diesen Besucher überhaupt als Kunden haben? Jeder Marketer würde sich über die Frage wundern, schließlich will man möglichst viele Kunden und allein die steigende Quote zählt. Karl Kratz argumentierte anders. Es könne durchaus förderlich sein, nicht jeden Kunden anzunehmen. Wer würde nicht gerne die 5 % seiner Kunden aussortieren, die für 80 % des Service- und Supportbedarfs verantwortlich sind? Auch hier präsentierte Kratz ein nicht ganz ernst gemeintes Beispiel, das er zu Demonstrationszwecken online gestellt hatte. Dabei ging es um die Kalkulation des Jahresbeitrags für eine Risikolebensversicherung. Der Rechner kalkulierte fleißig und ab der Eingabe „51 Jahre“, „weiblich“ und „Raucher“ wurde ein Link zu einem Sterbegeldrechner angeboten. Warum nicht einfach die als unrentabel eingestuften Besucher als potenzielle Kunden zur Konkurrenz schicken?, dachte Kratz laut nach. 

„Teste nie mit Traffic der Klasse ‚alle‘. Teste immer nur mit qualifiziertem Traffic.“ Karl Kratz

Ein weiterer grundlegender Tipp von Kratz war, sich ausschließlich mit qualifiziertem Traffic zu beschäftigen. Dazu verwendet man am besten ein sog. Perimeter-Netzwerk. Das ist ein Set von zusätzlichen Domains, die für die Vorqualifizierung des Traffics zuständig sind, diesen gezielt einsammeln und dann interessenbezogen unterscheidbar an die eigentliche Hauptdomain weiterleiten. Die beiden Vorträge von Karl Kratz dürfen wohl ohne Übertreibung sowohl aus technischer Sicht als auch bezogen auf die inhaltliche Leidenschaft als Highlights des Konferenztrios im Adlon bezeichnet werden. Kratz ist ein Vor- und Andersdenker, und das ist erfrischend lehrsam.

Google BigQuery als Number Cruncher einsetzen

Der Unterwäschehersteller Palmers hat durch seine Multi-Channel-Organisation diverse Fragestellungen (bspw. Umsatzentwicklung in Filialnähe), die es mittels Daten zu beantworten gilt. Neben der klassischen Webanalyse greift Palmers auf die Möglichkeiten der Rohdatenanalyse u. a. mittels Google BigQuery zurück. Der relativ neue Service von Google erlaubt, riesige Datenmengen mit durchaus mehreren Milliarden von Datensätzen in Sekunden zu analysieren. Durch eine SQL-ähnliche Abfragesprache (siehe Abbildung 7) kann die technische Infrastruktur von Google in einem Software-as-a-Service-Modell genutzt werden und Daten aus unterschiedlichen Quellen vereinen (detaillierte Infos unter: developers.google.com/bigquery/). Nutzer von Google Analytics Premium haben z. B. die Möglichkeit, die tatsächlichen Rohdaten der Bewegungsdaten der Website direkt zu analysieren, wohingegen Anwender anderer Analysesysteme die Daten über die API hochladen müssen, sofern sie nicht bereits in der Google Cloud sind (https://developers.google.com/storage/).

Der Vorteil von BigQuery ist neben der Leistungsfähigkeit der Infrastruktur die Flexibilität des Angebotes. Eine nutzungsabhängige Abrechnung bietet eine einfache und transparente Kostenstruktur: aktuell 80 $ je Terabyte/Monat sowie 20-35 $ je TB verarbeiteter Daten; bei Bedarf gibt es größere monatliche Pakete zu günstigeren Konditionen. Obwohl Palmers noch am Anfang der BigQuery-Nutzung steht, erwartet man sich durch die Nutzung tief greifende Einblicke in die granularen Daten und schnelle Antworten auf Fragestellungen, denen große Datenmengen zugrunde liegen.

Betriebsblind: Wer in der Flasche sitzt, kann das Etikett niemals lesen!

Einer der weltweit bekanntesten Speaker, Tim Ash, stellte „sieben Totsünden des Landingpage-Designs“ vor. Eines der größten Probleme effizienter Landingpages ist nach Ash die Tatsache, dass man selbst ignorant und (betriebs-)blind ist. So wie niemand von sich sagen wird, das eigene Baby sei hässlich, wird auch die eigene Webseite immer irgendwie schön sein. Ash plädierte dafür, diese rosarote Brille abzusetzen, Designer im Zaum zu halten und die Webseite auf sieben Sünden zu prüfen („Boring sells!“). Diese sind im Einzelnen:

  1. Unklarer Call-to-Action: Dem Besucher wird nicht klar vermittelt, was er auf dieser Webseite tun soll.
  2. Zu viele Wahlmöglichkeiten: Es werden zu viele Klickmöglichkeiten geboten (Abbildung 9).
  3. Datenhunger: Lange Formulare mit Abfrage vieler Datenfelder, welche später teilweise nicht genutzt werden. Als „Greedy Marketers“ (gierige Marketingleute) bezeichnete Ash die Verantwortlichen. Als weiteres Beispiel nannte er die wohl von der Felderzahl von niemandem übertroffene Pflichtformular-Orgie von Adobe, wenn man dort ein Whitepaper (mit Marketingbotschaften) downloaden möchte (Abbildung 11).
  4. Zu viel Text: Webseiten mit Textwüsten ohne wirkliche Führung des Besuchers.
  5. Falsche Versprechungen: Differenz zwischen Angebot in AdWords-Anzeigen („Erhalte Testberichte“) und Ergebnis auf der Zielseite („Abo-Abschluss“).
  6. Grafische Ablenkung: Pop-ups und Bewegung (Slider) lenken vom Wesentlichen ab und sollten vermieden werden.
  7. Mangel an Vertrauen: Nach 50 Millisekunden findet bereits eine Beurteilung der Webseite statt, bei der Siegel und bekannte Marken unterstützend wirken könnten. (Würden Sie ein Klavier für mehrere Tausend Dollar bei Rick Jones, siehe Abbildung 10, kaufen?)

Ash schloss mit der Frage, ob das alles schwer umzusetzen sei, und beantwortete diese gleich selbst: Nein, gar nicht. Das sind einfache Checklisten und es ist unverständlich, warum Unternehmen noch immer gegen die Interessen und Absichten ihrer Besucher arbeiten.

Fortgeschrittene PPC-Bidding-Techniken mittels Big Data

Jeff Ferguson zeigte, wie die Effektivität von AdWords mittels Datenanalyse und AdWords-Skripts deutlich gesteigert werden kann. Er führte Anwendungsmöglichkeiten vor, wie man mit Skripts einen programmgesteuerten Zugriff auf den AdWords-Account via JavaScript bekommt. Die folgenden Beispiele sollen die Herangehensweise näher beleuchten: Analysten eines Regenschirmhändlers fanden heraus, dass der ROI am höchsten ist, wenn es regnet. Damit die Kampagnen demnach in Abhängigkeit vom Wetter (lokal) angepasst wurden, analysierten und nutzten sie die lokalen Wetterdaten per API und setzten jeweilige Skripts ein. Überproportionaler Erfolg der AdWords-Kampagnen zeigte sich auch bei T-Shirts der Interpreten, die in den Charts waren oder Konzerte gaben. Dementsprechend wurden Charts per API abgefragt und die Gebote interpretenspezifisch erhöht sowie bei Konzerten die Kampagnen lokal justiert. Eine automatische Gebotssenkung in Abhängigkeit von Flugverspätungen oder -streichungen wurde bei Hotels rund um Flughäfen vorgenommen. Aufgrund der Tatsache, dass die Buchungen in diesem Fall organisch kommen, konnten die Gebote getrost angepasst werden. Datenbasis war hierfür wieder die API des Flugservice. Interessierte können sich ein kostenloses (englisches) E-Book mit Beispielen und Erläuterungen unter einfach.st/ferg1 laden.

Was als Eindruck am Ende blieb

Die Möglichkeiten der Analysen und Prognosen sind in den letzten Jahren rasant gestiegen. Die drei Konferenzen zeigten vielseitige Ansätze und Ideen, dies für das eigene Unternehmen nutzbar zu machen. Gleichgesinnte zu treffen, sich im persönlichen Gespräch über Herangehensweise und Erfahrungen auszutauschen oder sich von den Ausstellern und Experten vor Ort weiterführende Ansätze zeigen zu lassen – all diesem wurde genügend Platz eingeräumt. Analysten und Interessierte sollten sich unbedingt den 4. und 5. November 2014 im Kalender freihalten, den Termin für die Neuauflage dieser Konferenzen in Berlin.