SMX – Best one ever

Mario Fischer
Mario Fischer

Mario Fischer ist Herausgeber und Chefredakteur der Website Boosting und seit der ersten Stunde des Webs von Optimierungsmöglichkeiten fasziniert. Er berät namhafte Unternehmen aller Größen und Branchen und lehrt im neu gegründeten Studiengang E-Commerce an der Hochschule für angewandte Wissenschaften in Würzburg.

Mehr von diesem AutorArtikel als PDF laden

Was haben die Erfolgsserie Bing Bang Theory und die SMX gemeinsam und was unterscheidet sie? Beide starteten vor zwölf Jahren und beide sind ungebrochen erfolgreich. Diesmal etwas später, am 2. und 3. April, fand im Münchener Messezentrum die Search Marketing Expo statt. 1.600 Besucher aus 35 Ländern durften einem wirklich gut organisierten Programm folgen und exzellenten Speakern lauschen. Drei Keynotes, 73 einzelne Sessions und acht sog. „Deep Dives“ standen zur Auswahl. Die SMX war und ist ja schon immer das Schwergewicht der deutschsprachigen Suchkonferenzen und dieses Jahr legte die Veranstalterin noch mal eine Schippe drauf. Und was war nun der Unterschied? Big Bang Theory endet dieses Jahr nach zwölf Staffeln, die SMX geht mit Volldampf im nächsten Jahr weiter.

Alarm im SEO-Land?

Rand Fishkin eröffnete die SMX mit einer wie immer kurzweilig vorgetragenen Keynote und einem grundsätzlichem „Mach-es-anders“-Thema: „Die vier Reiter der Web-Marketing-Apokalypse“. Die bisherigen Vorgehensweisen funktionieren nicht mehr, lächelte der liebenswert wuselig umherlaufende und wirklich sehr sympathische Amerikaner ins Publikum. Die Social-Media-Plattformen wollen die Besucher immer stärker auf der eigenen Plattform halten und der Reach von sog. Business Pages bei Facebook nehme laut einer Nielsen-Studie (http://einfach.st/fbpagedown) kontinuierlich ab – von   (2011) auf nur noch 0,5 % (2017), erklärte er gleich zu Beginn.

Natürlich sollte man berücksichtigen, dass seit 2011 immer mehr Unternehmen eigene Fanpages bei Facebook und anderen Plattformen erstellen. Gerade die seither hereinströmende Masse kleiner und mittlerer Unternehmen pflegt allerdings diese Seiten (nett formuliert) nicht so nachhaltig oder kümmert sich beim Posten nicht darum, was Fans wirklich lesen wollen. Dass hier der Reach statistisch gesehen prozentual zurückgeht, ist möglicherweise ganz natürlich und vielleicht auch dem Unvermögen vieler verantwortlich gemachter (das ist eine bewusste Formulierung) Social-Media-Betreuer geschuldet. Vielleicht ist es sogar im Kerninteresse der User? Falls dies so ist, wäre das für gut performende Unternehmen dann doch eine kleine Entwarnung, dass über Social Media kein nennenswerter Traffic mehr zu holen wäre.

Die Plattformen setzen ihre Algorithmen für die Streuung von Beiträgen oft so, vermutete Fishkin, dass Beiträge mit Links zu anderen Sites eher weniger gefördert bzw. verbreitet werden. Bei Instagram ist das Verlinken nach außen limitiert, Twitter und LinkedIn konzentrieren sich ebenfalls auf On-Site-Content. Selbst YouTube schneidet Beschreibungen so ab, dass Links in der Standardansicht nicht mehr sichtbar sind, zeigte Fishkin (Abbildung 2).

Selbst Google sorgt für immer weniger Klicktraffic, indem man die Besucher mit direkten Antworten versorgt, sodass sie das Suchuniversum nicht mehr verlassen müssen. Ob das tatsächlich so ist, ließ sich leider nicht wirklich verifizieren. Denn auf der Seite der New York Times aus dem Beispiel von Abbildung 3, von der sich Google angeblich den Content holt, um den Traffic zu „stehlen“, finden sich völlig andere Filme, als in der Übersicht als Direktantwort gezeigt werden (Original-URL aus dem Folienbeispiel: www.nytimes.com/interactive/2019/arts/television/best-movies-on-amazon-prime.html). Allerdings ist es auch nicht von der Hand zu weisen, dass Google immer mehr Content so in die Suchergebnisse einfügt, dass Klicks unnötig werden. Fishkin wies unter anderem darauf hin, dass z. B. Klicks auf lokale Suchergebnisse zu Google Maps führen, nicht zur eigenen Website. Das ist richtig. Fraglich bleibt jedoch, womit einem Suchenden mehr geholfen ist. Wer schon mal die Website eines traditionellen Handwerkers betrachtet hat, mag sicher nicht uneingeschränkt zustimmen, dass ein (wenn auch sogar ohne Zutun des Handwerkers) automatisierter Eintrag bei Google Maps nicht doch informativer sein kann und die Kontaktaufnahme schneller ermöglicht. Auf welchem Weg ein potenzieller Kunde daherkommt, sollte dem Unternehmen egal sein – sofern er zum Kunden wird. Wem jedoch der eigene Traffic wichtiger ist als ein breites Gefundenwerden, der mag dies durchaus bedauern. Mittlerweile findet man Jobs, Filminfos, das Fernsehprogramm, Sportinfos, Hotels, Flüge und mehr direkt als Antwort bei Suchen. Das ist ganz sicher bitter für die Unternehmen, die damit bisher ihr Geld verdienten.

„Once Google owns all the traffic … there´s no more incentive for publishers to create content“, betonte Fishkin. Zieht man von den Publishern diejenigen ab, die bisher nur deswegen Content erzeugten, weil da bestimmte Lücken waren, die man gezielt auffüllte, um Klicks und Traffic zu generieren, die dann über dort platzierte Werbung Geld brachten, kann das die übrig gebliebenen tatsächlich spürbar zurückwerfen. Man darf ja nicht aus dem Auge verlieren, dass auch heute noch viele Publisher mit Armeen von Billigschreibern jede Art Content zusammengoogeln lassen bzw. selbst abschreiben, um sich im Ranking mit zum Teil harten SEO-Maßnahmen nach oben zu schieben und letztlich möglichst viel Bannerwerbung auszuliefern. Mit den Websites „normaler“ Unternehmen hat diese Betrachtung aber oft nicht so viel gemeinsam bzw. ist nicht so dramatisch, wie die Zahlen aus den Publisherbereichen oft zeigen.  

Auch über Influencer-Marketing wird es schwieriger, erklärte Fishkin. Seine Definition bzw. genauer die Veränderung im Zeitablauf von Influencer-Marketing lautet wie folgt:

2012: Discover all the sources that influence your audience. Do marketing (of all kinds) in those places.
2018: Pay half naked people on Instagram $500 to snap photos with your product.

Die New York Times hat im Jahr 2018 übrigens mehr über Influencer berichtet als über SEO in Summe seit jeher. Fishkin witzelte darüber, dass man bei der Times tatsächlich noch „S. E. O.“, also mit Punkten dazwischen, schreibe. Vielleicht fehlen SEO auch die Bilder, damit es die „Großen“ richtig wahrnehmen?

Als Patentrezept für schlaue Online-Marketers erklärte Fishkin, man solle sich wieder mehr auf die eigene Website konzentrieren und zum Beispiel vermehrt auf E-Mail-Listen setzen. Man kann z. B. auch Podcasts, Whitepapers, Guerilla-Marketing, Blogs und vieles mehr einsetzen. Insbesondere, wenn die Mitbewerber einen dieser Kanäle nicht bespielen, winken dort besonders viele Gelegenheiten.

Am Ende empfahl er drei Schritte zum digitalen Werbeerfolg:

  1. Earn brand exposure w/ your target audience
  2. Get >1 organic visit (or social engagement)
  3. Advertise to those who already know+like you

Alles nur noch Bots oder was?

Jim Sterne zeigte in einer weiteren Keynote, wie sich das Marketing durch den Einfluss künstlicher Intelligenz tief greifend verändern wird. Noch gibt es einige Hürden, technische Unzulänglichkeiten und Rückschläge. Aber die werden wir im Lauf der Zeit wohl alle überwinden. Zum Teil werden auch falsche Weg beschritten. Als Beispiel wurde nicht nur von Redner Sterne der aktuell beobachtbare Bot-Hype genannt. Da gibt es auf der einen Seite glühende Verfechter, die eine Zukunft an die Wand malen, in der Kunden nur noch mit Bots sprechen und die Unternehmen endlich entlastet werden bzw. massiv Kosten in der Kommunikation einsparen können. Auf der anderen Seite findet man Experten, die – allerdings noch in der Unterzahl – davor warnen zu glauben, man könne die aktuellen Unzulänglichkeiten einer Website mit einem Chatbot ausbügeln. Unübersichtliche Navigationen, unbekannte Fachbegriffe, völlig untaugliche Suchfunktionen, Links, die ins Leere laufen, Formulare, die direkt aus der Hölle kommen … Jeder kennt wohl den Ärger beim virtuellen Einkaufsbummel. Was passiert? Wenn man etwas wirklich will, ruft man beim Unternehmen an. Dort explodieren die Kosten für die Telefonbesetzung und statt die Gründe für die Anrufe, die ja oft nur ein Akt der Verzweiflung und ein Hilfeschrei sind, zu ermitteln, um die Ursachen zu beheben, glauben viele jetzt, ein Chatbot werde es schon richten und es kehre wieder Ruhe ein. Das könnte sich als Fehlurteil erweisen, denn einige Umfragen zeigen schon, dass die Besucher nicht so zufrieden sind mit der Abschiebung auf einen Bot, wie die betreibenden Unternehmen das glauben. Hier könnte irgendwann schnell und hart Reaktanz einsetzen, ähnlich wie bei den Telefonschleifen der Unternehmen, die glauben, mittels „Drücken Sie die 5, wenn wir Sie gleich aus der Leitung werfen sollen – das spart Ihnen Zeit“ des Kundenandrangs Herr zu werden. Jeder hasst diese Unternehmen dafür.

Und auch aus einem anderen Grund könnte es anders kommen: Wahrscheinlich werden die Konsumenten bald ihren eigenen Bot haben. Und der verhandelt mit anderen maschinellen Systemen oder sucht Informationen auf (maschinenlesbaren, also mit sog. Micro-/Metadata angereicherten) Webseiten. Es könnte natürlich auch denkbar sein, dass Kunden lieber mit Hunderten unterschiedlichen Bots chatten oder sprechen, keinerlei Speicherung oder Historie des Verlaufs haben und weiterhin selbst alles überwachen müssen. So gesehen – wahrscheinlich ist das wohl eher nicht. Der neue Google Assistent geht ja bereits Ende dieses Jahres in den USA live. Man darf gespannt sein.

Google Hacking – Cross Domain redirect für fremde Sitemaps?

Tom Anthony. Den Namen sollte man sich merken. Er war früher ein echter harter Hacker, drang bereits mit 16 Jahren problemlos in die Systeme der US-Verteidigungsbehörden ein. Eigentlich standen damals in Summe 287 Jahre Gefängnis für ihn an, was ihn trotz seiner Strafunmündigkeit wohl davon überzeugte, auf die helle Seite der Macht zu wechseln. Er zeigte, was SEOs von Hackern lernen können. Wenn es nicht illegal wäre, gäbe es z. B. interessante Möglichkeiten, wie man als Sitebetreiber beim Aufruf der Webseite durch einen Besucher problemlos und in Echtzeit erkennen kann, für welche Social-Media-Plattformen der Besucher einen Account hat und wie der lautet. Auch wie man ohne Berechtigung zur Search Console über dessen API abrufen kann, ob eine beliebige Domain z. B. eine manuelle Strafe von Google bekommen hat, zeigte Anthony. Na ja, besser „konnte“, denn Google hat diese Lücke mittlerweile geschlossen.

„Will Google follow a cross domain redirect for a sitemap? Yes.“; Tom Anthony
„Will they ‚trust‘ it? Yes.“; Tom Anthony

Überhaupt hat es ihm Google angetan. Und so erklärte er, wie man bis vor Kurzem über das Einreichen von Sitemaps bei Google Kontrolle über den Traffic völlig fremder Websites bekommen konnte. Über eine Lücke in der Interpretation des hreflang-Attributs via Sitemap war es z. B. möglich, einer Domain alle Suchklicks und den Traffic dahinter für ein bestimmtes Land zu entführen. Das ist harter Tobak. Anthony zeigte anschließend nur konzeptuell, wie man diese Lücke monetarisieren könnte, indem man dem bekannten UK-Händler Tesco den kompletten Traffic aus den USA abzweigt. Was man dazu braucht: 12 US$ für die Registrierung einer Domain, vier Stunden Arbeit, keinen einzigen Backlink und sonst nichts. Das Ergebnis innerhalb eines Monats: über 1,5 Mio. Impressions über die organische Suche und über 12.000 Besucher. Es blieb unklar, woher die genauen Zahlen und Screenshots dazu kamen, das war den Zuhörern aber auch nicht wirklich wichtig.

Bisher hat Google diese Lücke mit der Reaktionszeit von etwa eineinhalb Jahren behelfsmäßig geschlossen, indem das hreflang in Sitemaps ignoriert wird, wenn dieser über ein Ping aktiviert wird, erklärte Anthony. Aus verständlichen Gründen verzichten wir hier auf eine detaillierte Schilderung bzw. eine Anleitung zum Nachmachen. Merken Sie sich einfach den Namen Tom Anthony, und wenn Sie die Gelegenheit haben, ihn zu hören, nehmen Sie diese wahr.

Reverse-Engineering von Suchmaschinen wie YouTube & Co.

Seit fast 20 Jahren ist er in der Szene aktiv: Stefan Fischerländer. Natürlich treibt einen wie ihn immer wieder um, ob man mit besonderen Methoden mit Experimenten mehr über Rankingverfahren herausbekommen kann. Generell ist das sehr schwierig und bei Google selbst mittlerweile nahezu unmöglich – auch wenn es in verschiedenen Studien immer wieder mit Korrelationsberechnungen versucht wird. Man liest dann z. B., dass hohe Geschwindigkeit ein Rankingfaktor sei, weil man beobachtet habe bzw. gemessen wurde, dass fast alle gut rankenden Seiten schnell seien. Das könnte natürlich auch ein Nebeneffekt eines „sich Kümmerns“ bei allgemein guten Sites sein. Natürlich kann Geschwindigkeit ein wichtiger Rankingfaktor sein, aber über singuläre Korrelationen in einer Suppe von über 200 Rankingfaktoren ist die Beweisführung über Ursache-Wirkungs-Beziehungen dann doch nicht so einfach. 

Dieser Post aus dem Februar 2019 von Garry Illyes, einem Google-Mitarbeiter, sorgte in der Szene für Überraschung und zum Teil bei vielen Experten auch für Kopfschütteln. Erst im Oktober 2017 wurde ein Patent von Google mit dem Namen „Modifying search result ranking based on implicit user feedback“ eingetragen. Und es gab bereits andere Aussagen von Googlern, die durchaus in eine andere Richtung interpretiert werden können. Problem also: Darauf kann man sich wohl nicht (mehr) verlassen bzw. man mag es nicht.  

So bleiben am Ende doch nur eigene Versuche und der Austausch mit anderen, die hier ebenfalls genügend Erfahrung aufweisen können. Fischerländer setzte u. a. für YouTube einen kleinen Versuch auf und beobachtete 2.500 Videos in 1.452 Channels. Views und Likes zeigten eine deutliche Korrelation beim Ranking. Erfreulicherweise ist sich Fischerländer auch der Mess- und Interpretationsrisiken bewusst und sprach diese offen an. So kann es z. B. sein, dass das eigene „Mess“-Skript andere Daten „sieht“ als ein eingeloggter Benutzer oder dass der Betreiber einer Plattform gar bei Verdacht falsche Daten ausspielt. Wurden wirklich alle Daten korrekt ausgeliefert? Ein offener Umgang mit solchen (selbst-)kritischen Fragen ist wichtig und gehört zum sorgfältigen Arbeiten. Seine Analysedaten und die Phyton-Skripte stellt er übrigens unter github.com/stefanfis/smx2019 kostenlos zur Verfügung.

Bei Instagram brachte seine Analyse eine starke Dominanz von Links (Korrelation 0,6) und einen schwächeren Zusammenhang beim Alter eines Posts zutage (~ 0,2).

Die stärksten Einflüsse auf das Ranking bei Pinterest haben laut Fischerländers Tests die Anzahl der Saves (~0,65), der Kommentare (~0,51) und der Pins (~0,37). Danach standen noch die Anzahl der Follower (~0,28) und das Alter des Posts (~0,14) auf seiner Liste.

Zur Erklärung

Ein Korrelationskoeffizient von 1 bedeutet eine 1:1-Beziehung von zwei Werten. Steigt Wert A um 5, steigt auch der Wert B um 5. Ein Koeffizient von -1 bedeutet einen negativen Zusammenhang, hier würde der Wert von B um 5 sinken. Liegt der Koeffizient bei 0 oder in der Nähe davon, bedeutet dies, dass kein erkennbarer Zusammenhang zwischen den beiden Werten besteht.

Nichts geht ohne Daten!

So das Credo von Marcus Tober. Er versuchte, mit Daten von Searchmetrics zu analysieren, was in den letzten Google-Updates passierte bzw. ob es Gemeinsamkeiten bei den Gewinnern und Verlierern gab. Zu den großen Verlierern im Gesundheitsbereich mit etwa 1,5 Mio. Seiten im Google-Index zählt medicinenet.com. Gewonnen hat dagegen mit nur 37-tausend Seiten der neue Player verywellhealth. Dafür sah Tober mehrere Gründe. Für die Suchphrase „Low blood pressure“ hat medicinenet über 2.000 rankende URLs, verywellhealth dagegen nur 167. Mit diesen wenigen URLs bekommt die Plattform aber laut Tober etwa dreizehnmal mehr Traffic. MedicineNet will zuerst die E-Mail-Adresse und schießt Pop-ups. Die Videos sind sehr langsam und oben findet der Besucher falsche Links zu Themen, die alles andere als weiterführend sind.

Und verywellhealth ist etwa siebenmal schneller als medicinenet.com. Man kann also erkennen, dass die eine Domain das Gegenteil von themenfokussiert ist, zu einem Thema immer und immer wieder die gleichen oder ähnliche Informationen publiziert und ganz offensichtlich nicht auf Besucherbedürfnisse eingeht. Die andere konzentriert sich auf den Ausbau von Themen und eine vernünftige Verlinkung statt auf das Anlegen immer mehr neuer Seiten. Sieht man sich die Seiten aus Besuchersicht an, wie Tober das simulierte, erkennt man auch schnell, wo ein weiterer Hase im Web-Pfeffer liegt. Manche Plattformen dienen ganz offensichtlich nur dazu, möglichst viele Banner auf den Besucher zu werfen – teilweise so übel, dass der Content gar nicht mehr zu entdecken ist. Abbildung 8 zeigt ein solches Beispiel. Hier geht es eigentlich um einen Artikel zu „Herz-Kreislauf-System“. Mit diesem Infobedürfnis kommt ein Besucher auf diese Seite. Was sieht er? Jemand streckt ihm eine übel aussehende Zunge entgegen und will erklären, was der Belag dort wohl verrät. Oder – Hose runter, auf der Toilette sitzend – was denn der Stuhl über die Gesundheit verrät. Dazwischen das Bild eines Furunkels. Nett. Rechts kann man einem Shein-Shop einen Besuch abstatten, was auch immer dort verkauft wird. Und wer den Namen seines Schutzengels (vertraulich!) wissen möchte, kann einfach auf „Öffnen“ klicken. Dann noch die Behauptung unten, dass man dieses Angebot kostenlos durch die Verwendung von Cookies zur Verfügung stellen könne. Ist das o. k.? Nein, ist es nicht – und Tobers Beispiel zeigt entlarvend und schonungslos, warum solche Sites immer und immer weiter abstürzen. Google hat offenbar mittlerweile eine zuverlässige Methode gefunden, den Suchenden solche Blendwerke zu ersparen.

„Hier hat sich jemand Gedanken gemacht“; Marcus Tober über den Speedscore bei verywellhealth

Tober schaute sich gezielt auch die Seiten von MedicineNet an, die gegen den Absturztrend gewonnen hatten. Auch dort erkennt man Auffälligkeiten: Alle haben keine Videos und deutlich weniger Werbung. Er glaubt, Trust und Credibility haben in Summe an Einfluss im Google-Ranking gewonnen. Bei SEO geht es immer mehr auch um gutes Produktmanagement. Ohne glückliche Besucher kann man heute kein Markenvertrauen (aus Sicht von Google) aufbauen. Er wies erneut wie bereits in der Vergangenheit darauf hin, dass das Kopieren von beobachteten Rankingfaktoren oder Dingen, die auf anderen Sites funktionieren, deutlich in die Irre führen könne. Jede Branche werde anders vermessen und daher solle man seine eigenen Experimente und Analysen z. B. mit Google Lighthouse machen. Auch Tober vertrat übrigens am Ende die datengestützte Meinung, dass Userverhalten mittlerweile ins Ranking eingehe.  

Neu: der Fight Club

Marcus Tandler brachte erstmalig ein neues Format auf die SMX – den Fight Club. In jeder Runde treten zwei bekannte SEO gegeneinander an, die unterschiedliche Meinungen zu aktuellen Themen vertreten. Vorher und nachher findet jeweils eine elektronische Abfrage der Publikumsmeinung statt. So sieht man anschließend, wer überzeugen konnte bzw. wer die im Saal vorherrschenden Meinungen drehen konnte.

Im ersten Slot „Pro oder contra AMP“ trat zunächst Barry Adams an, der gegen AMP wetterte. AMP ist seiner Meinung nach ein Irrweg. Google mag keine nativen Apps, weil sie da nicht reinsehen können und komplett außen vor bleiben. AMP soll augenscheinlich die Browsernutzung erhöhen. Seiner Meinung nach hat aber AMP nicht primär die Geschwindigkeit zum Ziel, sondern Apps zu verdrängen. Google ist eine Webcompany, keine App-Company, erklärte er. Und: AMP ist gar nicht so viel schneller, aber eben ein „kastriertes“ Format.

An die Adresse von Google gerichtet, sagte er:

„We make the web, we make the content and you have to adapt, not we!“

Tomek Rudzki war dagegen pro AMP. Seiner Meinung nach kann ein Publisher nicht auf AMP verzichten, und sei es nur wegen des AMP-Symbols in den News, das hohe Geschwindigkeit verspricht. Er konnte allerdings den Saal nicht überzeugen, Barry Adams lag mit 62 % klar vorne.

Anschließend ging es um das Thema PWA, also Progressive Web Apps. Sie machen sog. native Apps überflüssig, also die, die man bisher in der Regel auf dem Smartphone benutzt.

Nichola Stott vertrat die „Pro“-Liga. PWA bringen eine Menge Speed, seien wegen der neuen Technologie auch offline immer verfügbar und die Nutzererfahrung sei besser. Bei Themenpark konnte die Geschwindigkeit von vorher 9 Sek auf 2,1 Sek. reduziert werden. Das brachte 3 Mio. britische Pfund mehr bei den Ticketverkäufen.
Izzi Smith von Sixt gab Contra. PWA seien nicht vollständig kompatibel zu alten Browsern. Sie vertrat die Meinung, es sei gut, zwei native Apps zu haben, für das iPhone und für Android. Dies vor allem wegen des Styles. Die beiden Plattformen seien ja recht unterschiedlich von der Bedienung her und man könne sie genau so bauen, wie die User das gewöhnt seien. Smith konnte als Einzige die Stimmung im Saal komplett umdrehen. Nach ihrem leidenschaftlichen Plädoyer sagten volle 71 % Ja zu den nativen Apps.

Im dritten und letzten Slot stand die Frage „Linkbuilding ja oder nein“ im Raum. Dan Petrovic meinte, ohne genügend Backlinkaufbau seien gute Rankings nicht machbar. Gegen ihn und gegen Linkbuilding tat Marcus Tandler an. Ein (künstlich gebauter) Link ohne Traffic bringe heute gar nichts mehr, meinte Tandler. Das sei eine ganz natürliche Reaktion von Google. SEOs haben im Lauf der Zeit alles zerstört, was früher funktionierte. Gastbeiträge in Blogs, Linkbuilding über Formulare (= Black-Hat-Technik; Anm. d. Red.) oder Blogs (wegen des automatisierten Zuspammens der Kommentarfunktionen) nannte er als Beispiele. Am Ende lag Tandler damit mit 61 % deutlich vor dem Befürworter.

„Linkbuilding is a waste of time and it´s dangerous“; Marcus Tandler

Der neue SEMY Award

Am Ende des ersten Konferenztages fand im großen Saal noch die Publikumsabstimmung für die beiden Kategorien des Deutschen Suchmaschinenpreises statt. Gegenüber den letzten Jahren kürte nicht eine Fachjury die Gewinner, sondern wählte jeweils die besten drei Bewerbungen aus. Diese stellten in kurzen und durchaus interessanten und lehrreichen Pitches ihre Lösungen vor. Die Abstimmungsquote lag im Publikum bei über 90 %, das zeigte, dass auch dieses neue Format der Auswahl offenbar sehr gut ankam.

Für die Kategorie „Beste SEO/Content Marketing Kampagne 2018“ gewann die UNIQ GmbH mit „deutschlandLiebe by Urlaubsguru“ den begehrten ersten Preis. Der Preis für die beste SEA-Kampagne 2018 konnte das Team von Bloofusion und Zumnorde mit nach Hause nehmen. Sie brachten die Online-Werbung für den Shop und die regionalen Filialen perfekt in Einklang. Weitere Infos und Hinweise für Bewerbungen für 2019 gibt es unter semyawards.com.

Fazit

Die SMX ist und bleibt ein fester Bestandteil im Konferenz-Set-up. Sie war dieses Jahr noch besser, noch strukturierter, noch anwendungsorientierter und die neuen Formate kamen dem Vernehmen nach sehr gut beim Publikum an. Wer beim Thema Searchmarketing auf dem neuesten Stand bleiben will, sollte sich den 18. und 19. März 2020 auf jeden Fall schon mal im Kalender vormerken. Die SMX ist immer einen Besuch wert!

Wer nicht bis dahin warten möchte und kein blutiger Einsteiger mehr ist, dem sei die englischsprachige SMX Advanced Europe ans Herz gelegt, die dieses Jahr vom 30.09. bis 01.10. in Berlin stattfindet (siehe smxadvanced.eu).

Weitere Infos zur SMX 2019 und 2020 gibt es unter smxmuenchen.de.