Überzeugen Sie HIPPOs mit Testing in Google Analytics

Tobias Aubele
Tobias Aubele

Tobias Aubele ist Professor für E-Commerce an der Hochschule für angewandte Wissenschaften Würzburg-Schweinfurt und Berater für Webcontrolling. Im September wurde er „Deutschlands bester Conversion-Optimierer 2018“. Er lehrt das Themenumfeld Conversion-Optimierung, Usability und Webanalytics im Studiengang E-Commerce. Zuvor war er viele Jahre in einem internationalen Multi-Channel-Unternehmen in diversen Führungspositionen tätig, zuletzt als Bereichsleiter E-Commerce.

Mehr von diesem AutorArtikel als PDF laden

Das Phänomen der HIPPOs (highest paid person’s opinion) ist in vielen Unternehmen anzutreffen. Die HIPPOs haben eine eindeutige Vorstellung über das richtige Layout, die perfekte Farbwahl und das beste Design der Webseite. Kunden und E-Commerce-Verantwortliche sehen dies gegebenenfalls deutlich differenzierter. Nur wie lassen sich HIPPOs am besten überzeugen? Eine einfache und effiziente Möglichkeit der Überzeugung mittels Content-Tests bietet das kostenlose Webanalysetool Google Analytics.

Das Layout und Design für eine Landingpage ist meist sehr schnell gefunden. Die Verantwortlichen wählen aus 1 bis n Designvorschlägen den vermeintlich besten aus und setzen diesen direkt ein. Die Nutzung von Informationen, basierend auf detaillierten Personas der Zielgruppe, welche Rückschlüsse auf Eigenschaften, Nutzungsverhalten, Werte und Einstellungen zulassen, ist bislang selten in Unternehmen verankert. Sofern bereits bestehende Layouts oder gekaufte Fotos vorliegen, wird gerne wieder darauf zurückgegriffen. Warum auch nicht, denn schließlich haben diese in der Vergangenheit zufriedenstellende Ergebnisse geliefert. Die Fragen, die sich für jeden Verantwortlichen jedoch immer stellen, lauten: Ist das gewählte Bild, der gewählte Text, die gewählte Farbigkeit, die Positionierung meiner Cross-Sell-Angebote etc. passend für meine Zielgruppe? Könnte die Konversionsrate bzw. Mikrokonversionsrate wie bspw. abgeschlossene Newsletteranmeldung gesteigert werden, wenn ein anderes Bild, Überschrift, Text, Design-Element, Farbe, Seitenlayout etc. gewählt wird? Liegen HIPPOs in ihren Entscheidungen wirklich immer richtig?

Eine mögliche Antwort auf diese Fragen liefern Tests in der Webanalyse. Testing ist eine sehr gute Möglichkeit, eine Hypothese mit Zahlen zu belegen bzw. dadurch zu verwerfen. Auf dem Markt ist eine Vielzahl kostenpflichtiger und kostenloser Tools erhältlich (Übersicht siehe www.whichmvt.com). Im Folgenden wird die Funktion Content Experiments in Google Analytics näher beleuchtet, welche einen einfachen Einstieg in das Themenfeld Websitetesting ermöglicht.

Zum 01.08.2012 wurde der bekannte Google Website Optimizer eingestellt. Die umfassenden Testmöglichkeiten wurden in Google Analytics integriert und heißen nun offiziell Google Content Experiments. Mithilfe der Content-Tests von Google kann getestet werden, wie gut bis zu neun verschiedene Versionen der zu testenden Seite die Besucher zum Ausführen eines bestimmten Ziels bewegen. Es kann somit analysiert werden, mit welcher Variante relativ gesehen die meisten (Mikro-)Konversionen (Käufe, Newsletteranmeldungen, Kontaktanfragen etc.) erzielt werden. Um eins gleich vorwegzunehmen: Google Content Experiments ermöglicht keine multivariaten Tests, d. h. Tests, bei denen gleichzeitig diverse Kombinationen der Contentelemente auf der Seite geprüft werden. Google Content Experiments bietet ausschließlich A/B-Tests bzw., genauer gesagt, A/B/N-Tests, d. h. bis zu neun Versionen einer einzigen Seite mit jeweils separaten URLs.

Für Tests in Google Analytics wird ein Analytics-Account benötigt (Anmeldung unter google.de/analytics). Nach erfolgter Anmeldung muss der Analytics-Tracking-Code mit Tracking-ID auf jeder Seite der Domain implementiert werden. Um dem deutschen Datenschutz Rechnung zu tragen, sind folgende Schritte zwingend notwendig:

  1. Abschluss eines Vertrags zur Auftragsdatenverarbeitung nach § 11 BDSG (Download unter www.google.de/analytics/terms/de.pdf)
  2. Verwendung der Funktion _anonymizelp im Tracking-Code damit das letzte Oktett der IP-Adresse gelöscht wird (ist bei vielen aktiven Installationen [noch] nicht implementiert)
  3. Anpassung des Datenschutzhinweises in Bezug auf das eingesetzte Trackingverfahren
  4. Möglichkeit zum Widerspruch gegen das Tracking durch den Nutzer mittels Browser Add-on anbieten (https://tools.google.com/dlpage/gaoptout?hl=de)
  5. Löschung der Altdaten im Analytics-Account, sofern diese Daten unrechtmäßig im Sinne des Datenschutzes erhoben wurden

Nach erfolgreicher Implementierung von Google Analytics können Tests sofort konfiguriert werden. Die Testingfunktionalität befindet sich in Google Analytics im Bereich Content im Untermenüpunkt Test (siehe 1 in Abb. 1). Sofern bislang kein Test aufgesetzt wurde, kann der erste Test mit Eingabe einer URL (2) konfiguriert werden.

Im anschließenden Konfigurationsmenü (siehe Abbildung 3) kann der Test final aufgesetzt werden. Elementar von Bedeutung für das Ergebnis des Tests ist die Bestimmung des Messwertes, an welchem schlussendlich der Erfolg der Seite gemessen wird. Es stellt sich immer die Frage: Woran wird konkret gemessen, ob die Variante besser von den Nutzern angenommen wird als die Originalseite? Dies kann je nach Webseite bzw. Website bspw. der Kauf, der Umsatz, die Besuchsdauer etc. sein. Sofern die Standardziele in Analytics für die eigenen Bedürfnisse nicht passend sind, kann ein individuelles Ziel definiert werden. Ein Ziel (Goal) in Analytics könnte bspw. der Download eines Dokuments (Auswahl 1 in Abbildung 3) oder der Aufruf einer bestimmten URL sein (bspw. der Kontaktseite).

Im Idealfall herrscht im Unternehmen folgendes Verständnis: Es wird nicht darüber diskutiert, ob getestet wird, sondern nur, wie viel Prozent der Nutzer in den Test einbezogen werden. In den Tests kann hierfür von 1 Prozent in verschiedenen Stufen bis zu 100 Prozent des Traffics der zu testenden Seite eingesetzt werden (2). Je mehr Nutzer für die Tests zur Verfügung gestellt werden, desto schneller sind die Ergebnisse verfügbar bzw. valide, da die Stichprobe größer wird. Diese Einstellung kann während des laufenden Tests angepasst werden.

Die Höchstdauer eines Tests in Analytics beträgt drei Monate. Langzeittests sind dadurch nicht möglich. Dennoch ist ein Test, sofern er bis zu drei Monate benötigt, um eine bessere Variante zu finden, hinsichtlich seines vermutlichen Uplifts (Steigerung in Prozent zur Originalversion) kritisch zu hinterfragen. Falls sich herausstellt, dass eine Variante eine statistisch signifikante bessere Leistung als die anderen erzielt, endet der Test entsprechend früher. Dennoch ist Vorsicht geboten und ein Mindestzeitraum von zwei Wochen für Tests ist empfehlenswert, um Einflüsse durch Wochenende, Uhrzeit, Wetter etc. statistisch zu minimieren (3). Eine zeitliche Schätzung hinsichtlich der maximalen Dauer des Tests in Abhängigkeit von Traffic und Besuchern kann bspw. unter einfach.st/vwosplit durchgeführt werden (Abbildung 2).

Abschließend ist das Konfidenzniveau festzulegen. Damit wird definiert, wann der Test als statistisch valide akzeptiert wird und das Ergebnis statistisch kein Zufall ist (4). Mit Tests wird generell versucht, aus einer Stichprobe auf die Gesamtheit zu schließen. Dabei gibt es immer Störeinflüsse bzw. unerwartete Ereignisse. Die Stichprobe ist damit immer eine Schätzung auf die Grundgesamtheit. Deshalb wird von den Tests unter Angabe einer Wahrscheinlichkeit, des Konfidenzniveaus, ein Konfidenzintervall statistisch errechnet (d. h. bspw. „die Konversionsrate liegt bei 11 +/- 1 Prozent“ und damit im Intervall von 10 und 12 Prozent). Dies bedeutet, bei einem Konfidenzniveau von bspw. 95 Prozent ist statistisch davon auszugehen, dass mit 95-prozentiger Wahrscheinlichkeit eine Konversionsrate innerhalb des Konfidenzintervalls von 11 +/- 1 Prozent erzielt wird. Diese statistischen Verfahren beruhen auf der Annahme einer Normalverteilung der Stichprobe, d. h. einer glockenförmigen Verteilung um den wahren Mittelwert. Bei einer sehr geringen Anzahl von Besuchern und Konversionen ist das Ergebnis kritisch zu hinterfragen.

Damit sind die Hauptkriterien des Tests definiert. In Google Content Experiments können bis zu neun Varianten parallel zur Originalseite getestet werden. Es muss jeweils die URL der Variante in Schritt 2 der Testkonfiguration eingetragen werden (Abbildung 4). Mehr Varianten benötigen zwar eine längere Laufzeit, haben jedoch den Vorteil, dass die externen Einflussfaktoren wie Wetter, Mitbewerber etc. über den Test hinweg für die Varianten identisch sind. Während des Tests können einzelne Varianten deaktiviert werden. Tipp: Neben der absoluten Adressierung der Varianten kann auch eine relative Adressierung genutzt werden (siehe Dropdown 1 Abbildung 4). Diese Art der Adressierung bietet mehr Flexibilität und reduziert Probleme bspw. im Zusammenhang mit http/https-Websites. Diesen Zusammenhang soll das folgende Beispiel verdeutlichen: Angenommen, anstelle der absoluten Adressierung wird mit der Auswahl „relative“ und der Eingabe „?var=ohne-teaser-zeigen“ gearbeitet. Wird in diesem Fall www.websiteboosting.com/kontakt.html im Browser geöffnet, werden die Nutzer entweder die Originalseite sehen oder auf die Variantenseite www.websiteboosting.com/kontakt.html?var=ohne-teaser-zeigen geleitet.

Sobald die zu testenden Varianten definiert sind, steht in Schritt 3 des Konfigurationsmenüs für diesen Test ein individueller Testcode zur Verfügung. Dieser Code muss unverändert in den Headbereich der Originalseite integriert werden. Alternativ kann der Code per E-Mail an den Webmaster gesendet werden (siehe Button „Code an Webmaster senden“ in Abbildung 5). Tipp: Für Wordpress existiert ein Plug-in (http://einfach.st/wppi), durch welches der Testcode auf der zu testenden Seite komfortabel integriert bzw. deaktiviert werden kann (Abbildung 6).

Sobald die Implementierung des Codes im 4. Schritt des Konfigurationsmenüs durch Google Analytics überprüft wurde, kann der Test sofort gestartet werden. In Abhängigkeit vom Traffic und dem zugrunde liegenden Konversionsziel der Seite stehen die Daten und erste Ergebnisse nach ca. 24 Stunden zur Verfügung.

Der Test berechnet nun, welche Variante im Vergleich zur Originalseite die auf das Ziel bezogene beste Leistung erzielt. Zudem gibt der Test an, wie groß die Wahrscheinlichkeit ist, dass diese Variantenseite nicht zufällig eine gute Leistung erzielt hat. Die Testergebnisse können folgendermaßen interpretiert werden: Ein Blick auf den Status gibt an, ob eine Variante bereits besser ist bzw. ob der Test noch läuft (siehe 1 in Abbildung 8). Im Beispiel in Abbildung 8 beträgt die Absprungrate (die Zielgröße des Tests) der Variante bislang 0 Prozent, d. h. eine Verbesserung von -100 Prozent zur Originalseite (grüner Pfeil, da Verringerung der Absprungrate). Zum aktuellen Zeitpunkt hat die Variante eine Wahrscheinlichkeit, die Originalseite zu übertreffen, von 68,3 Prozent. Übertreffen bedeutet lediglich, dass diese Seite besser ist unter der Angabe einer entsprechenden Wahrscheinlichkeit. Dies sagt jedoch nicht die Wahrscheinlichkeit hinsichtlich der Höhe vorher, d. h., dass in diesem Beispiel zukünftig die Absprungrate 0 Prozent sein wird bzw. eine Verbesserung von -100 Prozent zutrifft!

Tipp: Segmentieren der Daten (2 in Abbildung 8) ist hilfreich, um einen spezifischen Einblick in die Ergebnisse, basierend auf den einzelnen Teilsegmenten, zu bekommen. Typische Segmente sind „Neue Besuche“, „Bezahlte Suchzugriffe“ sowie „Zugriffe von Mobilgeräten“. Dies könnte bspw. bei der Aussteuerung von SEA-Landingpages [Glossar auf SEA-Kampagne] wertvolle Hinweise liefern (bspw. wie sich die Konversionsratenveränderung der Nutzer mobiler Endgeräte von denen mit stationären PCs unterscheidet). Selbstverständlich ist die Anlage und Nutzung benutzerdefinierter Segmente hier absolut empfehlenswert, um firmenspezifische Gruppen zu bilden.

Google Analytics greift im Testverlauf frühzeitig automatisch bei schlechten Leistungen einer Seite ein. Dies bedeutet, sofern eine Variante erheblich bessere Leistungen erzielt als die anderen, werden mehr Nutzer auf diese Variante weitergeleitet. Nach dem Ende bzw. Beenden des Tests wird allen Besuchern wieder die Originalseite angezeigt. Falls sich nach Ablauf des Tests statistisch valide herausstellt, dass eine Variante besser ist als die Originalseite, sollte diese Variante zur neuen Originalseite angepasst werden. Der Testcode im Head sollte entfernt werden, falls die Originalseite bereits besser ist.

Hinweis: Gestoppte Tests in Analytics können nicht erneut gestartet werden, sondern lediglich in einen neuen Test kopiert und anschließend neu gestartet werden. Aus diesem Grunde ist eine abschließende Prüfung der Eingaben im Konfigurationsmenü vor Teststart unbedingt empfehlenswert.

Hinsichtlich der Auswirkung auf SEO ist Folgendes zu beachten. Websitetesting hat das Ziel, die Webseite für den Nutzer zu verbessern, mit der Hoffnung, die bisherigen Ziele zu übertreffen. Dies entspricht dem Geiste von Google, dem User das beste Ergebnis bereitzustellen. Damit ist die Gefahr einer Cloacking-Einstufung seitens Google bei einem verantwortungsvollen Umgang mit Testvarianten gebannt. Empfehlenswert sind unter SEO-Gesichtspunkten zwei Dinge:

  1. Die Variantenseiten sollen vom Inhalt her den Originalseiten und damit auch in der Botschaft dem Original entsprechen (siehe auch Hinweis: einfach.st/googs12).
  2. Einsatz des rel=“canonical“-tags [Glossar] auf den Variantenseiten, wodurch Google auf Indexierung des bevorzugten Inhalts der Originalseite hingewiesen wird.

Abschließend folgende Tipps für die ersten Tests:

  1. Um zeitnah Ergebnisse zu erhalten, sollten Seiten ausgewählt werden, auf denen hoher Traffic zu verzeichnen ist.
  2. Veränderungweniger, jedoch auffälliger Elemente in den Varianten. Wird bspw. ein Video zusätzlich eingefügt, ist die Veränderung der Ergebnisse direkt darauf zurückzuführen. Sollte neben diesem Video noch die Überschrift verändert sein, ist ein direkter Rückschluss auf den Erfolgsfaktor nicht möglich. Es ist empfehlenswert, mehrere Tests einzusetzen bzw. bei ausreichend hohem Traffic mehrere Varianten gleichzeitig zu prüfen. Ein Blick in die Webanalysedaten (bspw. trafficstarke Seiten mit hohen Absprungraten) sowie Umfragen in der Zielgruppe (bspw. online mit surveymonkey.com) bieten einen guten Hinweis, welche Elemente der Seite getestet werden könnten/sollten. Basierend auf diesen Hinweisen unbedingt für jeden Test eine spezifische Hypothese formulieren und stringent darauf prüfen.
  3. Always be testing!“ (Zitat von Bryan Eisenberg). Ein permanentes Testing führt zu einem iterativen Fortschritt. Konversionsoptimierung bzw. Websitetesting ist ein kontinuierlicher Prozess, der nicht endet.
  4. Beharrlichkeit! Viele Tests liefern keinen Uplift, d. h., die Originalseite ist bereits die beste Version. Dies ist nicht als Rückschritt zu verstehen, sondern ein weiterer positiver Schritt zum besseren Verständnis der Zielgruppe.
  5. Ruhe bewahren! Anpassung der Originalseite immer erst nach Erreichen eines statistisch validen Ergebnisses (Signifikanz). In vielen Tests zeigt sich schnell ein vermeintlicher Sieger, was jedoch purer Zufall sein kann – ist komisch, ist aber so. Hier gilt es, die statistischen Werte des Tests immer im Auge zu behalten und nicht vorzeitig zu handeln.

Fazit:

Google Analytics bietet mit Content Experiments eine gute Möglichkeit, schnell und einfach in das Thema Testing einzusteigen. Kostenpflichtige Tools bieten bspw. durch Trafficsegmentierungen sowie multivariate Testmöglichkeiten einen größeren Funktionsumfang. Dennoch ist insbesondere für klassische A/B-Tests Google Analytics eine gute Wahl, mit Websitetesting und Konversionsoptimierung zu beginnen.

Und schlussendlich: Durch das statistisch belegte Aufzeigen der Vorteilhaftigkeit einer Variante können Bauchentscheidungen von HIPPOs ggf. schnell zurechtgerückt werden ;-)

In diesem Sinne: Happy Testing!