SMX – die Leitkonferenz

Mario Fischer
Mario Fischer

Mario Fischer ist Herausgeber und Chefredakteur der Website Boosting und seit der ersten Stunde des Webs von Optimierungsmöglichkeiten fasziniert. Er berät namhafte Unternehmen aller Größen und Branchen und lehrt im neu gegründeten Studiengang E-Commerce an der Hochschule für angewandte Wissenschaften in Würzburg.

Mehr von diesem AutorArtikel als PDF laden

Die SMX gibt es nun bereits seit zehn Jahren und innerhalb dieses Zeitraums hat sie sich mit 1.600 Teilnehmern wohl klar als deutsche Leitkonferenz zum Thema Search entwickelt. Auch die SMX folgte dem erkennbaren Trend, immer mehr Gewicht auf internationale Speaker zu legen. Über 60 Fachvorträge in verschiedenen Themenkategorien und vier Keynotes sorgten dafür, dass für alle Teilnehmerinnen und Teilnehmer genügend neues Wissen, Ideen und Anstöße zum Nachdenken aufgesammelt werden konnten. Am Abend des ersten Konferenztages wurden in feierlicher Atmosphäre die SEMY-Awards (Deutscher Suchmaschinenpreis) übergeben. Website Boosting sah sich für Sie im Konferenzzentrum der Münchener Messe um, was die Branche in diesem Jahr inhaltlich umtreibt.

Sprach- und mobile Suche? Kein Grund zur Panik, so das Credo von Greg Gifford, der die erste Keynote der Konferenz hielt. Allerdings haben noch immer viel zu viele Marketer die Mechanismen nicht verstanden, die „Mobile“ ausmachen.

„Feed the Voice Search“; Greg Gifford.

Zu etwa 80 % wird bei verbalen Suchanfragen über Google Home der Text (etwa 30 Worte) aus dem sog. Featured Snippet auf Position Zero vorgelesen, das über den normalen Suchergebnissen ausgegeben wird. Fragt man Google z. B., wie man Bulgur kocht, bekommt man als Antwort den Ausschnitt von rezepte.anleiter.de als Sprachausgabe (Abbildung 1). Gifford empfahl, mit entsprechenden Tools gezielt für die eigene Domain nach solchen speziellen Suchergebnissen zu suchen und diese textlich entsprechend zu optimieren. In den meisten Fällen fehlen im Text ein Hinweis auf eine Marke oder ein Anreiz, die Domain zu besuchen, um ggf. weitere Infos zu erhalten. Vielen Websitebetreibern ist noch nicht einmal klar, ob und welche Texte von ihnen als Sprachausgabe auf Anfragen hin ausgegeben werden. Strukturierte Daten zu verwenden, wie sie bei schema.org beschrieben werden, helfen Google, die Inhalte besser zu verstehen und zu klassifizieren. Gemäß einer Studie von Backlinko (backlinko.com/voice-search-seo-study) haben Seiten, von denen Google Sprachantworten auswählt, im Durchschnitt 2.312 Worte. Wie immer ist bei solchen Studien allerdings Vorsicht angebracht, weil man zu oft eine beobachtete oder gemessene Wirkung methodisch unzulässig als Ursache anführt.

Der Fit zwischen einer Sprachsuche und der eigenen Website bzw. dem erwähnten Textausschnitt gelingt dabei umso besser, je mehr man die Sprache der User verwendet und „Marketing-Bullshit“ (O-Ton) vermeidet. Besonders hilft auch die Verwendung sogenannter W-Fragen. Gifford wies darauf hin, dass Seiten für eine Anzeige auf Smartphone schnell genug geladen werden müssen. Man solle sich darauf besinnen, z. B. statt eigener oder exotischer Schriftarten wieder auf Systemschriftarten umzustellen. Marketingverantwortlichen sind solche Gimmicks („sieht anderes aus“) wichtig, die Besucher bemerken dies meist aber gar nicht. Ebenfalls sei es eine ausartende Unsitte, statt einem „Killerbild“, also eben dem besten Bild, ganze Bildergalerien als Slider über den kleinen Bildschirm der Telefone zu treiben, was ebenfalls viel Ladezeit verschwendet. Viele scheint nicht zu stören, dass ein Viertel oder die Hälfte der Besucher schon wieder verschwunden ist, weil Seiten zu lange laden – Hauptsache, die vielen vermeintlich schönen, interessanten und teuren Fotos werden angezeigt. 

„Get rid of your fuckings sliders!“; Greg Gifford.

As quickly as possible!

John Müller, Google-Sprachrohr für Webmaster, erläuterte, wie die künftige mobile Welt hinsichtlich der Suchmaschine funktioniert, und dass es nun höchste Zeit sei, entsprechende Vorkehrungen zu treffen. Während früher zuerst die Desktop-Variante gecrawlt und beurteilt und dann die „Mobile Friendliness“ festgestellt wurde, ist die Reihenfolge heute bzw. künftig anders:

  1. Smartphone crawling
    Find all pages via smartphone an lock at them
  2. Check for desktop version
    Find desktop URL
  3. Smartphone indexing
    Unterstand the information on the Pages an seen by a smartphone
  4. Specific serving
    Show the mobile or desktop URL to Users

Müller erklärte auch die Schritte für den Übergang in den viel zitierten mobilen Index. Zunächst wird geprüft, ob eine Site aus technischer Sicht schon fit genug für den Übergang ist. Anschließend wird alles frisch von dem Mobil Bot gecrawlt und dann umgestellt. Anschließend werden die Verbindungen zwischen den mobilen und den Desktop-Seiten gesucht bzw. fixiert. Für einen reibungslosen Übergang empfahl Müller neben vergleichbaren Inhalten (auch Outlinks und Bildern mit Alt-Text) möglichst strukturierte Daten einzusetzen und vor allem auf eine gute Server-Performance für die m-Dot-Seiten zu achten, damit die erhöhte Crawlfrequenz auch aufgefangen werden kann. Erneut bekräftigte er die Einschätzung, dass man mit responsiven Design keine Probleme habe, da es ja nur eine URL gebe und dies vielleicht ein guter Zeitpunkt sei, darauf umzustellen – falls dies machbar sei. Das Handling von m-Dot-Domains ist und wird ungleich komplexer.

Ein spürbares Aufatmen, gefolgt von einer sofortigen internationalen Response in sozialen Medien, ging durch den Saal, als Müller ankündigte, dass Webmaster künftig eine Mitteilung in der Search Console erhalten, wenn die Umstellung auf den mobilen Index erfolge. Bisher war diese Information nur durch ein aufwendiges Überwachen der Logfiles herauslesbar, durch einen deutlichen Anstieg der Besuche des Mobile Bots. Weiterhin wird es noch entsprechende Blogposts von Google ganz generell zum Übergang geben. Es wird auch weiterhin im Gegensatz zum allgemeinen Sprachgebrauch nur einen Index geben. Und es gibt auch weiterhin keinen Zwang zu Umstellungen. „Desktop-only ist fine“, war auf einer der Folien zu lesen. Allerdings muss man davon ausgehen, dass solche Seiten in nicht allzu ferner Zukunft eben nicht mehr bei Suchen auf mobilen Geräten ausgespielt werden.

Leslie To betonte in ihrem Co-Vortrag nochmals das Thema Geschwindigkeit. Sowohl die Server Response Time als auch die durchschnittliche Ladezeit für Smartphones sollten bei der Optimierung eine hohe Priorität haben. Insbesondere auch der Zeitpunkt der „First Meaningful Paint“, also dann, wenn der erste nützliche Content auftaucht, sei sehr wichtig. Für SEO-Analysen empfahl sie, künftig in den entsprechenden Tools wie z. B. dem Screaming Frog als User-Agent „GoogleBot for Smartphones“ einzustellen, um gezielt Probleme erkennen zu können. Seiten mit internationaler bzw. mehrsprachiger Ausrichtung sollten hinsichtlich des hreflang-Tags noch mal geprüft werden. Tools dafür sind u. a. der erwähnte Screaming Frog, Deep Crawl oder Botify. Einzelne Analysen lassen sich z. B. unter technicalseo.com/seo-tools/mobile-friendly oder dem hreflang-Tag Checker als Chrome Extension durchführen. Wer in Python fit ist, sollte „Polly“ als Erweiterungsbibliothek nutzen.

Nicht jeder Content ist top

Larry Kim hielt mit „Unicorn Marketing“ eine weitere Keynote. Seine Theorie ist, dass 98 % der Marketingbudgets verschwendet sind und keinerlei Wirkung zeigen. Er hatte 2016 über 300 Blogartikel verfasst, aber nur acht davon (seine „Unicorns“, also Einhörner) brachten richtig Traffic, der Rest waren Donkeys (Esel). Ähnliche Verhältnisse fand er bei seinen Studien im Online-Bereich bei verschiedenen großen US-Magazinen. Nur wenige Storys generieren den Großteil des Traffics. Was seit Anfang des 19. Jahrhunderts unter dem Namen Paretoprinzip bekannt ist, fand Kim offenbar neu für das Online-Marketing heraus. Er wies zudem darauf hin, dass man im PPC, SEO und auf Social-Media-Plattformen von selbstlernenden Algorithmen belohnt wird, wenn man hohe Engagement-Raten in Form hoher Klickraten hat. Um nun die Einhörner zu finden, sollte man zunächst „Lots of Campaigns“ erzeugen. Anschließend misst man das User-Engagement und eliminiert die Verlierer („Kill the Donkeys“). Übrig bleiben dann die Gewinner, die Unicorns. Seine Strategieempfehlung ist, diesen Content dann in Variationen erneut zu verbreiten, u. a. auch auf unterschiedlichen Plattformen. Aus einem sehr gut laufenden Blogbeitrag macht man dann eben in abgeänderter Form einen Artikel z. B. für Search Engine Land. Wenn ein Seminar gut läuft, bietet man es einfach mehrfach an und kürzt bei den anderen Seminarthemen. Verschiedene „Hacks“ (im Deutschen würde man wohl eher „Tipps“ sagen), z. B., dass man seinen Content auch außerhalb der eigenen Nische bewerben sollte, rundeten seinen durchaus sehr engagierten Vortrag ab.

Wähle Mitarbeiter sorgfältig aus

Nach Passion & Perseverance, also Leidenschaft und Ausdauer, sollte man seine Mitarbeiter auswählen, so Lisa Myers in der letzten Keynote des ersten Konferenztages. Statt Bewerber den üblichen Unsinn („Wo sehen Sie sich in fünf Jahren?“) zu fragen, sollte man unerwartete und individuell zugeschnittene Fragen stellen. Sie stellt z. B. gerne ein Szenario vor, in dem man am U-Bahn-Gleis einem Elefanten begegnet. Was würdest du als Erstes tun? Dabei gibt es natürlich keine richtigen oder falschen Antworten. Sie zeigen aber sehr viel besser, wie ein Bewerber denkt und welcher Typ er ist. Welchen Browser nutzen Sie? Wer hier mit Internet Explorer antwortet, ist meist eher ein inaktiver Mensch mit wenig Eigenantrieb. Chrome oder Firefox dagegen signalisieren, dass die Person mit voreingestellten Dingen nicht zufrieden ist – denn hier muss schließlich aktiv etwas anderes installiert werden. Auch ihre Empfehlung, dass es wichtig sei, eher Menschen einzustellen, die nicht bequeme Ja-Sager sind, ist prinzipiell nicht neu. Spätestens seit dem Film „Männer“ von Doris Dörrie (1985) weiß man, dass sich echte Managernaturen nicht ohne erkennbaren Grund auf einen Tisch stellen, nur weil es ihnen jemand sagt. Myers nutzt das Prinzip in abgewandelter Form, indem sie einen aus Wikipedia kopierten Text über amerikanische Ureinwohner vorlegt, in dem an Ende die Frage steht, ob man das eigentlich immer noch lese und warum. Ebenso muss man als Führungskraft lernen, unterschiedlichen Mitarbeitern unterschiedlich zuzuhören, da jede Persönlichkeit anders ist. In ihrem Unternehmen hat sie u. a. eine sicherlich zur Nachahmung zu empfehlende Aktion fest etabliert – die sog. „Love Week“. Wie beim Wichteln zieht jeder Mitarbeiter den Namen eines anderen aus einer Urne und muss, Verzeihung, darf diese Person dann eine Woche lang mit Kleinigkeiten verwöhnen. Die Spannweite geht vom Holen des Lieblingskaffees vom Coffeeshop nebenan über nette Post-ists bis zum kleinen „Danke“ mit Dominosteinen auf den Schreibtisch gelegt. Es geht dabei, so Myers, nicht primär um die Geste des Beschenkt-Werdens, sondern darum, dass dies alle anderen bemerken. Diese „Sichtbarkeit“ erhöht die Motivation und Selbstachtung der Beschenkten spürbar. Ihr Fazit bzw. die Erkenntnis „Take care of people an people will take care of results!“ war zwar nicht eben neu, aber die vielen Beispiele zeigten doch recht gut, dass man ständig bei sich selbst nachfragen muss, ob man die bekannten Führungsprinzipien wirklich noch einhält, – und dass sich dann der Erfolg fast von selbst einstellt. 

AMP: Genial – or not the silver bullet?

Eine sicherlich sehr spannende Session hatte AMP (Accelerated Mobile Pages von Google) zum Kern. Während Sebastian Benz von Google den Einsatz von AMP eher unternehmensuntypisch fast missionarisch empfahl, blies Bastian Grimm, einer der besten „Technical“-SEOs und Experte für Webspeed, in ein ganz anderes Horn. Benz sah die Kernvorteile von AMP vor allem in den Punkten:

  • Fast by Design
  • UX for Free
  • Easy to Maintain

Grimm wollte diese Argumente allerdings so nicht unbedingt mittragen. Nach seiner Erfahrung lassen sich bestehende Seiten fast nie direkt zu AMP konvertieren, nicht selten müsse das komplette HTML und CSS neu gebaut werden. Weiterhin müssen in bestehende CMS die nötigen Funktionen für das Handling zusätzlich eingebaut werden. Und nur weil etwas auf GitHub zur Verfügung gestellt werde, sei es noch lange nicht Open Source, ergänzte Grimm. Benz zeigte Beispiele wie Spiegel Daily, Tasty oder die internationale Website von BMW, die bereits auf die AMP-Technik umgestellt hätten. Grimm fragte sich laut, was da wohl schiefgelaufen sei, denn selbst mit den googleeigenen Testtools (hier Lighthouse) wird eine Ladezeit von fast zwölf Sekunden ermittelt (Abbildung 8). Und selbst bis der erste vernünftige Inhalt zu sehen ist (First Meaningful Paint), dauert es immerhin mehr als sieben Sekunden. Wenn man weiß, dass die Startseite von BMW fast acht MB groß ist und der DOM über 3.300 Elemente hat, wirken die Zeiten zwar gar nicht mehr so extrem, zeigen aber, was Grimm im Kern meinte: AMP ist kein Heilmittel für lahme bzw. überbordende Websites. Es gilt, die Ursachen zu beheben, statt zu versuchen, sie mit AMP zu kaschieren. Noch nicht einmal die Bilder wurden bei BMW entsprechend komprimiert. Macht man beim Speeding ordentliche Arbeit, geht es auch ohne AMP bzw. man ist damit u. U. sogar schneller, wie Grimm mit Messungen zeigte. So sind z. B. die Seiten von ZEIT ONLINE oder dem Stern mit ihren „normalen“ responsiven bzw. m-Dot-Seiten schneller als die ebenfalls dort vorhandenen AMP-Varianten.

Artificial Intelligence

Johannes Schaback, CTO von Ladenzeile.de, beschäftigt sich intensiv und leidenschaftlich mit künstlicher Intelligenz bzw. Machine Learning. So legte er erst in einer Keynote am zweiten Konferenztag die Grundlagen, sodass jeder tatsächlich verstehen konnte, was sich hinter dem oft (zu) kompliziert erklärten Thema eigentlich verbirgt. Nämlich relativ einfache Statistik, die durch die extrem hohen Rechengeschwindigkeiten und die enorme Menge an zur Verfügung stehenden Daten viele Erkenntnisse ermöglicht, die vorher unerreichbar waren.

„We are envolving from a mobile first to an AI first world“; Sundar Pichai, CEO Google 2017.

Menschen lernen durch Erfahrung, Maschinen folgen Instruktionen. Machine Learning als Teilbereich der künstlichen Intelligenz bedeutet das Lernen von Daten. Innerhalb des Maschine Learnings ist das sog. Deep Learning besonders interessant. Zu einem gegebenen Input wird ein sog. neuronales Netz so lange trainiert, bis es die Regeln gefunden hat, die einen gewünschten bzw. in der ersten Stufe als richtig überprüften Output ermitteln können. Anschließend kann der Input variiert werden und durch das Netz werden eigenständig Lösungen gefunden. Während 2009 weltweit noch nicht einmal ein Zettabyte (eine Zahl mit 21 Nullen) an Daten entstanden, sind es Ende 2018 etwa 22 Zettabyte, 2020 werden es bereits mehr als 40 sein. Exponentielles Wachstum ist es, womit unser Gehirn regelmäßig überfordert ist. Und es wird nicht mehr lange dauern, so die Prognosen namhafter Wissenschaftler, bis künstliche Intelligenz bereits die ersten grundlegenden Dinge zu übernehmen in der Lage ist. In einer zweiten Session zeigte Schaback dann auch mit mehreren Fallbeispielen, wie man bei Ladenzeile.de bereits mit Machine Learning arbeitet. So wurde dort ein neuronales Netz trainiert, Keywords in fremden Sprachen für einen AdWords-Account zu generieren. Dazu ist gar nicht so viel Equipment nötig. Man braucht Kenntnisse in Python („Lernt Python“ war übrigens auf seiner ersten Folie zu lesen), einige kostenlose Open-Source-Tools wie z. B. Word2vec von Google und natürlich einen Computer. Anders als früher muss dieser aber kein Großrechner mehr sein, ein schneller PC mit großem Hauptspeicher tut es bereits. Um das Programm zu trainieren, verwendete Schaback Produktbeschreibungen, bereinigte diese Daten für das sog. Mapping und erstellte über Word2vec ein Modell, das mittels der umfangreichen hauseigenen Kategorien tatsächlich neben den gewünschten Long-Tail-Keywords dann auch die Ad-Texte in fremden Sprachen generieren konnte. Dabei ging es wohlgemerkt nicht um Übersetzungen, sondern um echte Transformationen aus einer jeweiligen Landessprachenbasis. Diese Keywords konnten dann als „Exact“ bei AdWords eingebucht werden. Warum das keine Menschen machen konnten? Bei ca. 150 Mio. Angeboten aus ca. 6.000 Shops mit 20.000 Kategorien in – eben – 14 Ländern, die Ladenzeile aggregiert, wäre eine manuelle Bearbeitung einfach unmöglich, ebenso wie einfache Short-Head-Keywords, weil sie für den angepeilten Zweck einfach zu teuer wären.

„Software is eating the world“; Marc Andreessen, 2011.
„AI eats Software“; Jensen Huang, 2017.

Auf dem gleichen Weg bzw. mit der gleichen Technologie werden übrigens auch die vielen in den Shops geführten Produkte zur Einordnung in die richtigen Kategorien klassifiziert. Da jeder Shop ein anderes System und andere Ontologien verwendet, ist auch hier ein manueller Weg schlicht nicht möglich. Mittlerweile ist man sogar in der Lage, mit solchen Bordmitteln – einzelne Objekte aus Modebildern – sehr ähnliche Produkte aus dem Angebot zu extrahieren (z. B. fast identische Schuhe, Hüte oder Taschen) und zum Einkaufen anzubieten bzw. zu empfehlen.

„In etwa fünf Jahren werden Algorithmen SEA-Experten ersetzen.“

Auf die Frage, wie lange es wohl seiner Meinung nach dauern würde, bis klassische SEA-Experten durch solche AI-Systeme ersetzt würden, antwortete Schaback: „In schätzungsweise etwa fünf Jahren.“ Das ist sicher genauso erschreckend wie plausibel, wenn man verstanden hat, was bereits heute mit Machine Learning zu leisten ist. Wer vermeiden will, einfach ersetzt zu werden, sollte sich wohl bereits heute Gedanken über eine Weiterentwicklung der eignen Skills machen.

Warum scheitert ein Relaunch?

Kurz gesagt wegen Unwissenheit (falscher Dienstleister, selbst gemacht), mangelnden Projektmanagements (SEO zu spät involviert, generelles Chaos) und einer zeitlichen und finanziellen Überforderung. So fasste Sebastian Erlhofer, übrigens Preisträger „Search Personality des Jahres“ des SEMY-Awards, seine Erkenntnisse zusammen. Gerade SEOs neigen dazu, die Optimierung für Google in den Vordergrund zu stellen. Es gehe aber auch um die Besucher und deren Anfragen bzw. Käufe, so Erlhofer. Selbst eine kleine Domain eines Mittelständlers hat oft schon über 2.000 URLs. Geht man von nur fünf Minuten aus, einem sicherlich noch viel zu niedrigen Wert, die man zur Sichtung, Klassifizierung und ggf. Änderung einer URL braucht, kommt hier schon ein kompletter Personenmonat zusammen. In der Realität zieht sich das sicherlich noch um einiges länger hin. Erlhofer sprach hier von der sog. URL-Falle.

Natürlich muss man zwischen einem einfachen Technik- (z. B. HTTP auf HTTPS oder ein Domainwechsel) und einem Design-Relaunch (z. B. neues Design, responsiv) unterscheiden, die je nach Anspruch oft in vergleichsweise wenigen Personentagen erledigt werden können, solange keine Content-Anpassungen nötig sind. Steht eine echte Neukonzeption an, vergehen bzw. benötigt man tatsächlich mindestens mehrere Monate.

„Vor einem Relaunch muss zwingend aufgeräumt sein (nicht werden)!“; Sebastian Erlhofer.

Eine Unsitte, aber durchaus sehr häufig anzutreffen, ist die Aussage, ein Relaunch müsse bis zu dem und dem Termin fertig sein. Und das, noch bevor ein Projektplan erstellt wurde.

Besonders wichtig ist ein vernünftiges Housekeeping – und zwar idealerweise bereits sechs Monate vor dem eigentlichen Relaunch! Dazu gehört das Finden und Behandeln von Duplicate Content, 404-Fehlern und natürlich allen 301-Weiterleitungen. Weiterhin werden Seiten, die nicht (mehr) in den Index sollen, markiert oder gelöscht. Weiterhin sollten PageSpeed-Maßnahmen durchgeführt werden. Der Grund ist relativ einfach. Bei schnellerem Seitenaufbau crawlt Google (erst) nach einiger Zeit auch schneller. Das hilft später enorm, wenn alles komplett neu abgeholt und indiziert werden muss. Dann geht die Crawlingfrequenz nämlich sprunghaft nach oben. Hat Google schon vorher „verstanden“, dass die Site performant(er) ist, geht das Indizieren nach dem Relaunch deutlich schneller bzw. alles wird spürbar schneller von Google aktualisiert. Ebenso sollten Einbindungen z. B. mit dem GTM (Google Tag Manager) bereits Monate vorher vorgenommen bzw. erweitert werden. Wer z. B. eine sog. Element Visibility auf alle Call-to-Actions setzt, kann hinterher auch aussagekräftige Analysen für „vorher/nachher“ fahren. Aber eben nur, wenn vorher auch tatsächlich genügend Daten gesammelt werden.

Um später messen zu können, ob sich der Relaunch wirklich gelohnt hat, empfahl Erlhofer, einen Engagement-Index aufzubauen. Diesen kann man mittels der folgenden Formel berechnen:

(100 – Bouncerate+1) * log(Verweildauer+1) * Scrolltiefe

Die Daten dazu kann man für jede URL aus dem Webtracking-Tool errechnen, sofern es die Ermittlung einer Scrolltiefe zulässt (bei Google Analytics z. B. über den Tag-Manager). Ein Hinweis lag Erlhofer am Ende besonders am Herzen: „Lass deine Website nach dem Relaunch nicht alleine.“

Fazit

Die SMX war wie jedes Jahr wieder eine Reise wert. Breit gefächerte Themen sauber verortet in sieben bzw. sechs fachorientierten Tracks, etwa zur Hälfte internationale Speaker, ausgesuchte Experten, ein wirklich exzellentes Organisationsteam und ein herausragendes Rahmenprogramm mit der Verleihung des Deutschen Suchmaschinenpreises und der anschließenden „After Dark“-Party nur wenige hundert Meter vom Konferenzstandort entfernt hinterließen einen stimmigen und sehr guten Eindruck. Und ja, auch das muss man noch mal erwähnen: Man darf jetzt auch Kaffeebecher mit in die Säle nehmen, weil sie einen speziellen Schraubdeckel haben. Erwähnenswert ist das nicht wegen des jetzt möglichen Koffeinschubs, sondern weil es zeigt, wie die Veranstalterin Sandra Finlay sich sechs Beine für ihre Besucher ausreißt. Die letzten Jahre gab es nämlich immer wieder Genörgel, weil – wie überall üblich – keine offenen Getränke zu Vorträgen erlaubt waren. Statt „nicht zu ändern“ suchte sie zusammen mit der Messeleitung nach einer Lösung und fand sie. Diese Sich-kümmern-Einstellung merkt man der gesamten Konferenz an. Daher gehört die SMX sicher auch nächstes Jahr wieder klar auf den Empfehlungszettel für ernsthafte Online-Marketer.