SMX – die Search Marketing Expo

Mario Fischer
Mario Fischer

Mario Fischer ist Herausgeber und Chefredakteur der Website Boosting und seit der ersten Stunde des Webs von Optimierungsmöglichkeiten fasziniert. Er berät namhafte Unternehmen aller Größen und Branchen und lehrt im neu gegründeten Studiengang E-Commerce an der Hochschule für angewandte Wissenschaften in Würzburg.

Mehr von diesem AutorArtikel als PDF laden
Tobias Aubele
Tobias Aubele

Tobias Aubele ist Professor für E-Commerce an der Hochschule für angewandte Wissenschaften Würzburg-Schweinfurt und Berater für Webcontrolling. Im September wurde er „Deutschlands bester Conversion-Optimierer 2018“. Er lehrt das Themenumfeld Conversion-Optimierung, Usability und Webanalytics im Studiengang E-Commerce. Zuvor war er viele Jahre in einem internationalen Multi-Channel-Unternehmen in diversen Führungspositionen tätig, zuletzt als Bereichsleiter E-Commerce.

Mehr von diesem AutorArtikel als PDF laden

Die SMX darf man wohl nach wie vor zur deutschen Leitkonferenz für alles rund um Search-Marketing zählen. Fast 70 Vorträge in zehn Thementracks, jede Menge internationaler Speaker und eine hervorragende Organisation sprechen jedenfalls dafür. Und es gab mit mittlerweile knapp 1.600 Besuchern pro Tag auch wieder einen neuen Rekord.

Nach der Eröffnung durch die Leiterin der SMX, Sandra Finlay, hielt der auch als „Wizard of Moz“ bekannte Rand Fishkin die erste Keynote der Konferenz. Sein Thema war fokussiert auf die Suchlandschaft 2017. Über zwei Billionen Suchanfragen wickelt Google pro Jahr etwa ab, genaue Zahlen gibt es dazu allerdings nicht, betonte Fishkin. Anschließend präsentierte er einige Zahlen, deren Quelle allerdings auch auf Nachfrage etwas im Dunkeln blieb. Sie wurden wohl über diverse Browser-Plug-ins gesammelt und hochgerechnet. So soll eine durchschnittliche Session etwa 55 Sekunden dauern, 8,4 % aller Klicks gingen auf Google-eigene Dienste (Youtube, Maps etc.) und bei 21 % würden Suchanfragen erst nochmals modifiziert, bevor ein Klick auf ein Ergebnis erfolgt. Erstaunlich niedrig lag die Rate der sog. „Pogostick“-Suchen, nämlich bei nur 8 %. So werden international Suchen genannt, bei denen erst ein Klick auf ein Suchergebnis erfolgt, danach aber eine schnelle Rückkehr zu den SEPRs (Suchergebnisseite) per Backbutton und ein erneuter Klick auf ein anderes Suchergebnis.

Auf Smartphones klicken 2 % auf bezahlte Anzeigen (AdWords) und 40,9 % auf ein organisches, unbezahltes Suchergebnis. Und er Rest? Der (57 %) klickt gar nicht, so Fishkin, weil die gesuchte Antwort zum Teil schon in den Ergebnistexten stehe. Auf dem Desktop seien die Zahlen anders: 2,8 % auf AdWords, 62,2 % auf organische Ergebnisse und nur 35 % klicken gar nicht. Wie erwähnt, blieb die Quelle der Daten etwas im Dunkeln und den Link „Source“ auf einigen seiner Folien konnte man selbstverständlich nicht anklicken – ebenso wenig wie später in Slideshare.

„From SEO First … to Holistic Marketing“; Rand Fishkin

Als spannenden Gedanken, zumindest für die Zugangsprovider in den USA, malte er ein Bild einer nicht allzu fernen Zukunft, bei der die Nutzung bestimmter Dienste im Netz kostenlos, andere kostenpflichtig werden könnten. So könnten z. B. Facebook, Yahoo!, Twitter oder MSN vom Provider ohne Nutzungsgebühren zur Verfügung gestellt werden. Die Gründe können vielfältig sein, der augenscheinlichste wäre, dass die Anbieter direkt dafür bezahlen. Wer googeln, Flickr benutzen oder die Site der BBC aufrufen möchte, muss 5 US$ pro Monat bezahlen. Die Nutzung von last.fm kostet 10 US$, während napster kostenlos bleibt. Eine Fiktion, klar. Aber die Provider liebäugeln ja schon länger damit, wie sie sich von der Leistung der Anbieter im Web einen Teil abschneiden können. Die Idee ist also nicht ganz von der Hand zu weisen und könnte die Nutzungslandschaft heftig umkrempeln.  

„Desktopsuchen sind nicht tot, sie bleiben nur seit sechs Jahren stabil auf gleichem Niveau!“; Rand Fishkin

SEO für B2B

Linkaufbau für Unternehmen, die nicht an den Consumer, sondern an andere Unternehmen verkaufen, ist zwar kein Spaß, aber notwendig, so Markus Hövener in seinem Vortrag. Oft sind die Produkte so speziell, dass man über die üblichen Webseiten schwer Linkmöglichkeiten findet, schon gar nicht thematisch passende.

„Nicht krümeln!“; Markus Hövener

Auf keinen Fall sollte man als B2B-Unternehmen krümeln. Damit meinte er, dass man tunlichst keine einzige Gelegenheit links liegen lassen sollte. Zeigen externe Links auf URLs, die mittlerweile entfernt wurden und einen 404-Fehler auslösen? Im B2B-Umfeld lohnt es sich deutlich mehr, auch solche vermeintlichen Kleinigkeiten zu prüfen und die Probleme wie hier mit einer 301-Weiterleitung zu beheben. Jeder Link-„-Krümel“ zählt. Und gerade auch bei einem internationalen Engagement sollte man ggf. auch die üblichen Domain-Strategien kritisch überdenken. Zumindest sollte man regelmäßig prüfen, ob Backlinks tatsächlich auf die richtigen Teile einer internationalen Domain gesetzt wurden.

Ein Beispiel: Deutsche Inhalte führt die SAP im Wesentlichen unter der Adresse www.sap.com/germany/*. Eigentlich müssten dann auch alle deutschen Websites mit einer erwähnenden Verlinkung auf dieses Verzeichnis /germany/ verlinken. Das ist aber nicht der Fall, wie Hövener mit einer einfachen Berechnung via Excel zeigte (Abbildung 4).

Backlinks stärken bekanntlich die Zielseiten. Bei SAP liegt hier einiges an Potenzial brach, was den deutschen Teil des Webauftritts angeht. Fast 1.500 .de-Backlinks laufen eben nicht auf deutsche Inhalte und stärken diese für Suchmaschinen.

Weiterhin empfahl Hövener, nicht immer nur produktzentriert zu denken, wenn es um das Thema Linkaufbau geht. Man kann sich an Partnerwebsites wenden, bei Veranstaltungserwähnungen verlinken oder auch Fachportale nutzen. Anschließend gab er einige Tipps, welche Bereiche man mit Content belegen kann, um noch mehr Verlinkungen von außen zu generieren:

  • Natürlich Neuheiten (Produkte, Dienstleistungen)
  • Wirtschaftliche Indikatoren u./o. Prognosen
  • Branchenereignisse (z. B. Fachmessen)
  • Rechtliche Themen (Änderungen, Forderungen an die Politik etc.)
  • Forschung (v. a. Neuheiten)
  • Personal (Ausbildung/Weiterbildung, Recruiting etc.)
  • Personalien
  • Studien/Umfragen im weitesten Sinne
  • Hinweise/Bemerkungen zu neuen Websites/Informationsangeboten (z. B. Initiativen) mit Branchenrelevanz

Schluss mit den SEO-Mythen

John Müller von Google räumte mit diversen SEO-Mythen auf und zeigte in einer weiteren Session die Analyseergebnisse seiner Siteklinik mit vorab eingereichten Websites.

Eine Website online schalten und ohne besonderes Zutun zu erwarten, dass alles mit dem Ranking klappt, ist nach wie vor keine gute Idee, mahnte Müller an. Er wies auch darauf hin, dass der Googlebot nach wie vor aus den USA heraus crawlt. Wer IP-basiert nach Ländern Content ausliefert, läuft Gefahr, dass die deutschen Inhalte gar nicht von Google gefunden und indiziert werden.

Müller hatte viele der üblichen Fragen an Google im Gepäck und stand gleichzeitig auch den Fragen aus dem Publikum Rede und Antwort. Hier einige der interessantesten:

  • Schadet es dem organischen Ranking, wenn man keine AdWords schaltet? Nein, definitiv nicht.
  • Schadet es dem organischen Ranking, wenn man AdWords schaltet? Nein, natürlich ebenfalls nicht.
  • Hat der Einsatz von Google Analytics Vor- oder Nachteile, weil Google ja dann die Daten sehen könnte? Nein, es gibt keinen Einfluss, Google nutzt diese Daten nicht.
  • Macht die Verwendung von Singular und Plural heute noch einen Unterschied? Manchmal kann das tatsächlich eine Rolle spielen.
  • Kann man auf Platz 1 ranken ohne Backlinks? Das kann schon sein, vor allem, wenn „die User die Seite gern haben“.
  • Macht sogenanntes Infinite Scrolling („unendliches“ Nachladen beim Scrollen) dem Bot Probleme? Manchmal schafft Google das, blättert aber nicht beliebig lange nach untern weiter. Das ist übrigens auch beim sogenannten Lazyloading bei Bildern so – diese werden dann nicht erkannt.
„RankBrain schreibt bestimmte Suchanfragen um“; John Müller

Auch den Einsatz von RankBrain machte Müller nochmals deutlich. Bei Suchanfragen, die neu sind, versucht dieses KI-System, die Suchabsicht zu interpretieren, und schreibt sie quasi so um, dass sie an den Query-Prozessor weitergegeben werden können. Dieser sucht dann wie auch bei anderen Suchen im Index nach passenden URLs. Insofern ist die häufig hör- und lesbare Bezeichnung als „drittwichtigster Rankingfaktor“ nicht korrekt bzw. extrem missverständlich. Google setzt mittlerweile, so Müller, Machine Learning in allen möglichen Bereichen ein.

Ein Problem ist nach wie vor, dass man nirgends sehen kann, ob der Googlebot Probleme hat bzw. die Crawlinggeschwindigkeit verlangsamt, weil der Webserver zu langsam ist. Hier bleibt man also weiterhin auf die eigene Einschätzung angewiesen. Fehler beim Crawling werden in der Search Console (GSC) ausgegeben. Dabei priorisiert Google die wichtigen Fehler und stellt sie oben an. Falls dort also Fehler aufgeführt sind, die nicht dramatisch sind bzw. manchmal keinen rechten Sinn machen, ist der Rest danach meist auch irrelevant. Wirklich Wichtiges steht also immer ganz zu Anfang. 

Wer das Canonical-Tag zur Vermeidung von Duplicate Content oder zur Sprachenselektion das hreflang-Tag einsetzt, sollte darauf achten, dass diese Tags auch auf die korrekten URLs zeigen. Wie das Beispiel von Schott zeigt (Abbildung 6), ist das in Unternehmen wohl oftmals noch immer nicht bekannt. In diesem Zusammenhang wies Müller noch darauf hin, dass es oft einige Zeit braucht, bis alle hreflang-Tags auch ihren Weg in den Index gefunden haben. Hier sollte man etwas Geduld mitbringen.

„hreflang-Updates brauchen Zeit“; John Müller

Google Analytics Power Reporting

Google Analytics bietet diverse Berichtmöglichkeiten. Um proaktiv seitens Analytics mittels E-Mails bei unnatürlichen Veränderungen informiert zu werden, riet Andrew Garberson, benutzerdefinierte Benachrichtigungen im Administratorenbereich zu konfigurieren (Abbildung 7). Insbesondere mittels Spezifizierung der Dimensionen und Metriken können diverse Szenarien als Auslöser der Benachrichtigung eingestellt werden. So kann bspw. die Veränderung des Umsatzes eines spezifischen Segments zur Vorwoche oder der CTR von SEA-Kampagnen als kritischer Indikator wirken, auf welche Analyse diverse Personen schnellstmöglich hingewiesen werden sollten. Tipp: Im Blogbeitrag einfach.st/lunam werden diverse Benachrichtigungsszenarien vorgeschlagen.

Weiterhin sind (benutzerdefinierte) Dashboards ein sehr gutes Mittel, um schnell einen Überblick über diverse Fragestellungen zu erhalten. Selbstverständlich können auch diese Berichte zeitgesteuert per E-Mail empfangen werden. Das Berichtswesen kann man sehr individualisieren, wenn die Daten aus Analytics mittels API extrahiert werden, um dann in Excel oder Google Sheets manipuliert zu werden. Das Analytics-Add-on für Google Sheets ermöglicht, Daten in Abhängigkeit von diversen Kriterien (Filter, Segmente, Datum etc.) zu importieren und dann entsprechend der Anforderung im eigenen Layout/Design weiterzuverarbeiten (Abbildung 8). Damit sind Berichte über mehrere Profile hinweg standardisierbar, es bedarf lediglich der Änderung der ID, um die entsprechenden Daten zu erhalten. Zudem erlaubt das Add-on, diese Berichte zeitgesteuert zu aktualisieren, um sie bspw. in Kombination mit Google Data Studio in Form einer Datenvisualisierung zu nutzen. Weitere Infos dazu gibt es in einem ausführlicheren Blogbeitrag unter einfach.st/lunam2.

Tipp: Besonders mächtig ist die Datenextraktion über die API mit dem kostenpflichtigen Add-on von Supermetrics (https://supermetrics.com/), das zum einen diverse Prozesse zum Im- und Export von Daten aus Google Analytics zur Verfügung stellt und zum anderen bestimmte Fremdanwendungen wie MailChimp, Facebook etc. zusätzlich integriert. Ein Test dieser Anwendung, welche es auch in Form eines Excel-Add-ins gibt, lohnt sich auf jeden Fall.

Warum deine Daten dich belügen

Daten werden gerne als absoluter Beweis gesehen, dennoch bedarf es eines genauen Blicks auf die dahinterliegende Statistik, um die Daten richtig interpretieren zu können. Felix Benz wies in seinem Vortrag auf die Tücken von Statistikfallen hin, welche ein Ergebnis ad absurdum führen können. So zeigen bspw. Testing-Tools bereits nach kurzer Zeit eine signifikante Veränderung, welche jedoch aufgrund der geringen Stichprobe letztlich nicht repräsentativ ist. Daher ist nicht nur von Bedeutung, die richtige Erfolgskennzahl für den Test zu bestimmen, sondern auf die entsprechende Stichprobengröße sowie Testlaufzeit zu achten. Je geringer der zu erwartende Uplift, bspw. aufgrund nur kleiner Veränderung an der B-Variante, desto größter muss die Stichprobe sein. Weiterhin: Je höher die Business-Relevanz ist, bspw. der Kundenwert (Customer Lifetime Value) als Zielgröße, desto langfristiger ist naturgemäß die Betrachtung und umso größer die benötigte Stichprobengröße.

Tipp: Unter www.konversionskraft.de/smx2017 kann ein kostenloses E-Book mit den zehn Statistikfallen beim Testing heruntergeladen werden, welches neben den präsentierten noch weitere Tipps enthält.

Jens Fauldrath komplettierte die Session und zeigte, welche Fallen die Interpretation der Daten der Google Search Console birgt. Während der Bericht über die Suchanfragen die Property nutzt, um die Daten zu aggregieren, nutzt der Bericht „Seiten“ die einzelne URL, um die Metriken, Impressionen und Klicks zu erheben. Das heißt, je nach Berichtstyp unterscheiden sich die Ergebnisse und aus einer Impression (by Property) werden sieben Impressionen (by Page; siehe Abbildung 9).

Weiterhin ist zu beachten, dass Google die Elemente von oben nach unten und von links nach rechts zählt, d. h., bspw. ein Ranking auf Position 11 könnte der Knowledge-Graph sein (weitere Informationen zur Zählweise der Ergebnisse siehe einfach.st/gs704). Einzelwerte, welche bspw. über die API extrahiert werden können, werden von der ausgewiesenen Gesamtsumme abweichen, da aus Datenschutzgründen nicht alle Daten angezeigt werden. Suchanfragen mit einer sehr geringen Häufigkeit oder solche mit personenbezogenen oder vertraulichen Informationen werden möglicherweise nicht erfasst (http://einfach.st/gs615). Daher sollte immer der Aggregationstyp beachtet werden. Bei der Extraktion von Daten über die API ist die Begrenzung von 5.000 Zeilen je Anfrage gegeben. Google liefert jedoch keine 5.000 Zeilen zurück, sondern eine geringere Anzahl. Daher rät er, unbedingt paginiert anzufragen (Abbildung 10).

Um die Aussagen der Daten aus der Search Console zu verbessern, sollten generell entsprechende Filter verwendet werden. Im Standard ist kein Filter bei „Land“ gesetzt, da in den einzelnen Ländern große Rankingunterschiede bestehen können. Ein Beispiel: Eine Seite rankt in Deutschland für eine Suchphrase auf Position 1, während die gleiche Seite in Estland für die identische Suchphrase auf Position 49 rankt. Das heißt, eine ausgewiesene durchschnittliche Position erfolgt auf Basis der Gewichtung der Impressionen. Der Einsatz des Länderfilters hat einen weiteren Vorteil im Hinblick auf das Erkennen von Mehrfachrankings. Sofern ausreichend Suchvolumen vorhanden, werden zu einer Suchanfrage die entsprechenden Seiten mit jeweiligen Positionen ausgewiesen, was auf eine ggf. vorhandene interne Kannibalisierung hindeutet.

I gotta dig bick

Wahrscheinlich haben Sie diese Überschrift erst mal falsch gelesen. Dieses und viele weitere Beispiele hielt Karl Kratz in seinem Vortrag für die Teilnehmer bereit. Er ging der Frage nach, ob und wie wir die Aufmerksamkeit unserer Besucher so lenken, dass in deren Wahrnehmung die von uns gewünschte Realität entsteht.

„Es gibt in der Regel mehr Menschen, die dein Angebot nicht kennen, als du heute Kunden hast“; Karl Kratz

Dazu muss man sich vor allem über den Kontext und die Erwartung Gedanken machen, damit beim Besucher auch wirklich Resonanz entsteht. Als Beispiel zeigte er eine Produktabbildung eines Esstisches aus Eisen und Altholz (Abbildung 12). Erzeugt diese Darstellung wirklich Resonanz? Kratz eliminierte zunächst alles rund um das Bild und ersetzte die Leere durch Beschreibungen wie: „Erinnerst du dich an den feinen Öl-Geruch schwerer Fabrik-Maschinen?“ „Verzaubere deine Gäste mit der 170 Jahre alten Geschichte dieses einzigartigen Unikats aus schwerem Industrie-Stahl“, oder: „Gibst du deinem Esszimmer mit dieser romantischen Kombination industrieller Ästhetik und edler Stabilität einen eindrucksvollen Mittelpunkt?“ Es ist unschwer einzusehen, dass man damit potenzielle Käufer leichter überzeugen kann als mit der tatsächlichen nach Katalogliste und Datenbank eher kalt und unpersönlich wirkenden Darstellung.

Viele Unternehmen sorgen sich laut Kratz auch nicht darum, dass Menschen eben meist noch keine Ahnung davon haben, wie die Produkte heißen und welche Eigenschaften sie haben. Durch die sprichwörtliche Betriebsbrille überfordert man die Besucher regelmäßig. Man arbeitet unbewusst mit zu vielen Vorannahmen und der Kaufwillige springt am Ende doch wieder ab, weil zu viele Fragen offenbleiben, als dass er guten Gewissens und mit einem guten Gefühl den Kaufen-Button klicken würde. Und wenn es zu kompliziert wird, geht unser Gehirn sowieso lieber in den sog. „Opossum“-Modus und stellt sich mehr oder weniger tot.