SMX – Essenzen der Leitkonferenz 2014

Mario Fischer
Mario Fischer

Mario Fischer ist Herausgeber und Chefredakteur der Website Boosting und seit der ersten Stunde des Webs von Optimierungsmöglichkeiten fasziniert. Er berät namhafte Unternehmen aller Größen und Branchen und lehrt im neu gegründeten Studiengang E-Commerce an der Hochschule für angewandte Wissenschaften in Würzburg.

Mehr von diesem AutorArtikel als PDF laden

Die Search Marketing Expo, kurz SMX, veränderte sich dieses Jahr stark. Die Veranstalterin wagte den Schritt heraus aus den teils beengten Hotels und daher war erstmalig das Internationale Congress Center in München das Ziel der knapp 1.100 Teilnehmerinnen und Teilnehmer. Dieser Schritt war wichtig und richtig, denn das sehr viel großzügigere Raumangebot verlieh der früher aus allen Nähten platzenden Großkonferenz den nötigen Rahmen. In über 55 Sessions berichteten nationale und internationale Top-Experten über die neuesten Trends, aber auch praktisch umsetzbare Tipps und Hinweise blieben nicht auf der Strecke. Website Boosting war für Sie vor Ort und notierte wie immer subjektiv wichtige Highlights. Lesen Sie u. a., wann Google Ihre Seiten für Mobile schlechter rankt, wie Profis gute Sites für Backlinks finden, warum die OnPage-Optimierung immer wichtiger wird und wie man für ein schlichtes T-Shirt Content findet, den Besucher und Suchmaschinen zu gleichen Teilen lieben.

Die große Keynote hielt dieses Jahr wieder der international anerkannte SEO-Experte Rand Fishkin von Moz. Er führte die nach seiner Meinung großen Trends und Änderungen im SEO-Business auf. Unter anderem brachte er vor, dass nur noch 15 % der Elemente einer Suchergebnisseite die organischen „Blue Links“ darstellen. Neben sog. Karussellanzeigen zeigt Google Sitelinks, Mini-Sitelinks, den Knowledge Graph, News, Video Snippets, Bilderboxen, lokale Ergebnisse, Landkarten, Google+ Postings, „also search for“-Hinweise, natürlich auch AdWords und weitere Anreicherungen, welche die normalen organischen Website-Suchergebnisse immer weiter in den Hintergrund bzw. nach unten bis unter die Falz drängen. 

„Google eats your Visitors”; Rand Fishkin

Wenn man heutzutage wissen möchte, wer wann für welche Kategorie z. B. den Oscar gewonnen hat, dann genügt die Sucheingabe „Oscar“ bei Google und die Gewinner werden sauber in einer googleeigenen, scrollbaren Box dargestellt (Abbildung 2). Während man früher in der Regel noch auf Webseiten durchklicken musste, stellt Google diese Infos nun selbst durchaus sehr übersichtlich zur Verfügung. Dass dies Sitebetreiber fuchst, die mit der Anzahl an Seitenaufrufen über Werbung, insbesondere mit Bannern, Geld verdienen, ist wohl jedem klar. 

Ein Klick auf die Links in dieser Box bringt dann ein erneutes Suchergebnis mit genau diesem Begriff. Klickt man z. B. auf „Cate Blanchett“, wird eine Suchanfrage mit diesem Suchstring ausgelöst. Klickt man hingegen rechts auf „Bester Film“, erscheint ebenso ein Suchergebnis mit der Suchphrase „Bester Film“ – was in diesem Zusammenhang nicht unbedingt Sinn macht. Zum einen sind solche Strukturierungen und Übersichten für Suchende durchaus nützlich, zum anderen endet eine Suche aber auch hier und ohne Klick, wenn die gesuchte Information bereits direkt zu sehen ist.

Viele der von Fishkin gezeigten Beispiele sind heute in Deutschland noch gar nicht zu sehen. Während z. B. die Suchphrase „Title Tag Length“ eine direkte Empfehlung von Google als Text ausgibt (übrigens mit veralteten Angaben), führt eine Suchabfrage aus Deutschland heraus noch zu den berühmten „10 Blue Links“ ohne sonstiges Beiwerk.

Fishkin wies auch darauf hin, dass neben einer feststellbaren zunehmenden Markendominanz auch immer öfter Google+ Postings in den Suchergebnissen zu finden wären. Als Beispiel zeigte er eine Suchanfrage nach „golden gate bridge“, bei der aus über 32 Millionen Treffern ein Foto aus den G+-Account von John Doherty auf Position 2 gelistet war. Auf seinen Folien war allerdings zu erkennen, dass all diese Abfragen im eingeloggten Zustand erfolgten. Man kann hier natürlich auch der Meinung sein, dass es für einen Suchenden hilfreicher ist, einen Plus-Beitrag von jemandem zu bekommen, dem man folgt, als nur anonyme Treffer. Die Kritik an Googles Anreicherung von Suchergebnissen, die auf der Konferenz mehrfach bei unterschiedlichen Sprechern auftauchte, war denn oft auch stark SEO-gefärbt. Dass es Sitebetreiber stört, wenn ihre Treffer von anderen Elementen nach hinten gedrängt werden, ist nachvollziehbar. An keiner Stelle wurde allerdings die Frage nach dem Suchenden gestellt und ob für diesen der Such- bzw. Antwortkomfort nicht sogar ansteigt.     

„OnPage is more important”; Rand Fishkin

Fishkin meinte sogar, eine neue Philosophie bei Google auszumachen. Während Google bis 2011 noch verkündete, dass SPAM ihr Problem wäre, wälze man dies seit 2012 mehr und mehr auf den Sitebetreiber ab. Als eine seiner Schlussfolgerungen empfahl er, die Kunden, Vorgesetzten und Kollegen umzuerziehen, was „SEO“ bedeutet. Es entwickelt sich immer mehr weg von einer Nischenkompetenz, hin zu einem additiven Bestandteil des Wissens für Online-Marketers. Zu dieser Schlussfolgerung brachte ihn eine Auswertung, die er in den Stellenbeschreibungen bei LinkedIn gemacht hatte. Dort stellte er fest, dass seit etwa 2011 häufiger „SEO is part of my job“zu finden sei und die reinen „SEO-Jobs“ zurückgingen. Die Anwendungsbreite von SEO wächst daher seiner Meinung nach spürbar an. Und man müsse die Kollegen in den „Nicht-SEO“-Abteilungen dazu bringen, sich auch ein tieferes Verständnis für SEO anzueignen. Ebenso müsse man Erwartungen auf schnelle Erfolge dämpfen, wie man sie früher z. B. mit Linkaufbau generieren konnte.

Es wird zukünftig u. a. vor allem darum gehen, bessere Userzufriedenheit zu erzeugen bzw. den Usererwartungen mehr und besser entgegenzukommen. Auch er zog den Schluss, dass es immer wichtiger wird, eine eigene Marke bezüglich der Suche im Web zu werden (Become a brand!). Dem sog. Brandbuilding, z. B. über Content-Marketing, Pressemeldungen, über virale Kanäle und v. a. soziale Medien, kommt seiner Meinung nach noch mehr Bedeutung zu.

Seine letzte, nicht ganz unerwartete Empfehlung war, die Webpräsenz mehr zu einer Marke aufzubauen: „The ‚find & abuse exploits‘ era of SEO is ending. The only logical strategy today is to be so good that Google looks bad taking you out.”

Auch Marcus Tandler vertrat die These, dass SEO mittlerweile eine eher kreative Aufgabe geworden sei. Es sei aber nicht leicht, wirklich damit herauszustechen, solange Katzenbilder mehr Likes bekommen als vernünftige Inhalte. In seinem sehr ambitionierten Vortrag zeigte er auf, wie Google von einer Such- zu einer wirklichen Antwortmaschine wird.

Dazu müsse Google mehr als nur Suchstrings, Webseiten und Links speichern. Man müsse die Beziehungen zwischen sog. Entitäten kennen. Mittels Tripelstores können dann bestehende Beziehungen abgespeichert werden. „SMX ist eine Konferenz in München.“ Dem Namen wird hierbei „Konferenz“ zugeordnet und in anderen Tripelstores kann aufgelöst werden, was eine Konferenz ist bzw. welche weiteren Zusammenhänge es zu dieser Veranstaltungsform noch gibt. Zusätzlich wird die Beziehung mit einem Ort, hier München, verbunden.

„Seit 2009 sammelt Google natürliche Sprachmuster“; Marcus Tandler

Wer sich einmal solche Zusammenhänge ansehen möchte, kann dies bei dbpedia.org tun. Dort findet man z. B. unter der URL de.dbpedia.org/page/Berlin sehr umfangreiche Beziehungen für die Entität Berlin. Die Daten von dbpedia sind übrigens frei beziehbar. Zur Nutzung über das Webinterface muss man allerdings etwas Geduld mitbringen, denn weder die Usability noch die Funktionsfähigkeit haben dort einen hohen Stellenwert. Viele Links führen ins Leere oder verursachen Fehler. Das tut der generellen Erkenntnis über das, was man unter „linked data“ versteht, aber keinen Abbruch. Reinsehen lohnt.

Gibt man heute, so Tandler, in den Suchschlitz bei Google die folgende Anfrage ein: „Finde alle MP3-Player mit einem USB-Anschluss und einem farbigen Display und sortiere das Ergebnis nach Gewicht“, dann erhält man zwar viele Ergebnisse, aber nicht das, wonach man gesucht hat. Hier künftig passende Antworten zu liefern, ist das Ziel von Google. Dazu ist allerdings noch viel „Lern“-Arbeit zur Erkennung des sog. „User Intent“ bzw. des onkologischen Kontexts zu leisten.  

Tandler schloss mit einer neuen Interpretation der Abkürzung „SEO“: Search Experience Optimization.

Justin Cutroni, seines Zeichens Google Analytics Advocate, erläuterte in einer enthusiastisch vorgetragenen Präsentation die neuen Möglichkeiten der Kohortenanalyse mit Google Analytics. Eine Kohorte ist eine Gruppe, die ein gemeinsames Ereignis hatte wie bspw. die Registrierung bei einer Online-Schulung an einem bestimmten Tag. Mittels Definition eines Segments (Abbildung 9) können diese Ereignisgruppen dann miteinander verglichen werden. Damit kann die Frage beantwortet werden, ob sich Besucher, die am 25.03. zum ersten Mal auf der Seite waren bzw. sich registrierten, sich von Besuchern, die sich zu einem späteren Zeitpunkt registrierten, im Verhalten unterscheiden. Mittels dieser Kohortenanalysen mit Google Analytics lassen sich zum Teil neue und wertvolle Erkenntnisse über das Verhalten von Benutzern gewinnen.

Ebenso leidenschaftlich zeigte Karl Kratz, wie man Content richtig zusammenstellt, wie man recherchiert und dabei den eigentlichen Fragen potenzieller Kunden auf die Spur kommt. Wie auch schon auf der SEOCampixx (siehe Konferenzbericht in der letzten Ausgabe 25) gab er den Zuhörern konkrete Tipps, wie man der Contentarmut vor allem bei Shops entgegentritt. Es reicht eben nicht mehr, T-Shirts als „weiß“, „Baumwolle“ und vielleicht noch mit „V-Ausschnitt“ zu charakterisieren. Nicht nur für die Suchmaschine ist das zu wenig Lesefutter. Auch die Besucher bleiben oft mit vielen Fragen zurück. Bedenken der Art, ob das T-Shirt beim ersten Waschen einläuft (wer kennt das Problem nicht?), könnte man mit Attributen wie „formstabil“ oder „läuft beim Waschen nicht ein“ begegnen. Wo wurde das T-Shirt produziert bzw. wo kommt es her? Es soll ja auch Käufer geben, die darauf achten, dass etwas nicht durch Kinderhände in einem Dritte-Welt-Land produziert wurde. „Dieses T-Shirt wurde im Rahmen eines zertifizierten, ökologisch nachhaltigen Verfahrens produziert. Durch den Einsatz einer einzigartigen Baumwollmischung absorbiert es rückstandsfrei Feuchtigkeit und Gerüche“, textete Kratz als kleines Beispiel vor. Es kann auch hilfreich sein, in Bewertungen von Benutzern auf anderen Plattformen (z. B. Amazon) zu sehen, um zu lernen, was diese bei einem Produkt ärgert, was sie gut finden oder ob da sogar Fragen zur Verwendung gestellt wurden. Dies alles mündete in der Aussage: „Liebe Deine Texter.“ Wer die Personen, die den Content erzeugen, nicht vernünftig und umfassend brieft, braucht sich nicht wundern, wenn er schlechte Texte bekommt. Ebenso ist es vorteilhaft, so Kratz weiter, wenn man an bestehendem Content kontinuierlich weiterschreibt. Statt mit einem „Big Bang“ eine Seite online zu stellen und sie dann für immer zu vergessen, ist es besser, ständig neuen und frischen Content dazuzubauen.

Wie ist ein Produkt – und wie bzw. was ist es nicht? Man müsse, so Kratz, den Besuchern potenzielle Fragen beantworten, die diese vom Kauf abhalten könnten – sofern sie keine Antwort auf diese Fragen finden. Das macht natürlich Aufwand, aber wer nicht nur in Suchmaschinen gefunden werden, sondern auch noch einen größeren Teil der Besucher in Käufer verwandeln möchte, muss solche Hilfestellungen geben. Die anschließenden Fragen aus dem Publikum zeigten allerdings deutlich, dass diese gar nicht so neue Art des Umgangs mit Content und Kunden noch immer nicht zu Herstellern und Händlern durchgedrungen ist. Noch immer fragt man nach dem Wonderbutton, den man nur finden und drücken müsse, und dann müsste doch alles gut werden. Etwas von dem Geld zu nehmen, dass man für klassisches Online-Marketing ausgibt, und damit zum Wohle der Besucher die Produktseiten zu veredeln – diese Denke scheint noch immer zu viele Marketers zu befremden. Immer noch mehr und mehr Visitors in den Shop schaufeln und über die ständig steigenden Kosten zu klagen, ist wohl noch immer das vermeintliche Mittel zur Zielerreichung: Mehr Umsatz.

„Google zieht die Zügel an“; Marcus Tober

Marcus Tober gab in seinem Vortrag „High Quality Linkbuilding mit Content-Marketing – wer bekommt eigentlich die Top-Links?“ sehr tiefe und eingängige gute und schlechte Beispiele zum Thema externe Verlinkung. Als positives Beispiel nannte er die Domain finanzen.net. Dort bekommt der Währungsrechner vergleichsweise viele Backlinks, weil er nach Meinung Tobers einen echten Mehrwert darstellt und sich funktionell abhebt.

Einen ähnlich positiven Effekt zeigt das Backlinkprofil von reference.com. Dorthin verlinken sogar viele .edu-Domains. Diese Top-Level-Domains bekommen nur Bildungseinrichtungen und diese müssen ihren Status vor der Vergabe zweifelsfrei nachweisen. Entsprechend gering ist der Anteil an Spamlinks von solchen Domains und entsprechend hoch ist die Wirkung solcher Links. Unter dictionary.reference.com stellt man jeden Tag das „Word of the Day“ vor – in Spanisch. Nützlicher Content, auf den eben auch Bildungseinrichtungen gern (freiwillig) verlinken. Entsprechend gut sind die Rankings in diesem Wortumfeld.

Als nicht nachahmenswertes Beispiel nannte Tober „expedia.com“. Dort hat man es wohl in der früheren Vergangenheit beim Linkaufbau nicht ganz so genau genommen – schließlich hat Google vor einigen Jahren auch noch sehr viel mehr toleriert. Seit Januar dieses Jahres lässt sich ein dramatischer Absturz bei der Domain erkennen (Abbildung 11), der eigentlich nur den Schluss einer Strafe seitens Google zulässt. Einige Beispiele für wirklich schlechten Backlinkaufbau hatte Tober mit im Gepäck dabei. Möglicherweise hatte man bei Expedia die Wirkung der alten, aber schlechten und sichtbar minderwertigen Links unterschätzt und sich als große Marke sicher gefühlt. Dies, nämlich eine große bekannte Firma zu sein und damit auf eine schnelle Aufhebung der Strafe zu hoffen, hatte sich zumindest bis zur SMX im März nicht bewahrheitet. Seit Mitte April befindet sich Expedia aber wohl auf dem Weg der Besserung und die Sichtbarkeit steigt wieder. Zum Redaktionsschluss war aber noch immer erst nur etwa ein Drittel der Sichtbarkeit wieder hergestellt.

„Was hat der User von einem Link?“; Marcus Tober

Tober empfahl, nicht nur schlechte Links entfernen oder entwerten zu lassen, sondern auch Content, der nichts bringt, zu entfernen. „Housekeeping“ betreiben, so nannte Tober dies. Auch ein Wetterportal bekam offenbar einen blauen Brief von Google wegen seltsam wirkender Backlinkstrukturen. Der Grund war wohl in den sog. Widgets zu sehen, die man auf Webseiten einbauen kann und die für einen Ort das aktuelle Wetter zeigen, aber eben auch einen Backlink mit Ortsnamen zum Portal. Nach der Änderung dieser Links mit dem Domain- statt dem Ortsnamen als Text konnte man das Problem lösen. Laut Tober hat dies dem Ranking des Portals für Wettersuchen für einzelne Städte nicht geschadet. Seine eindringliche Empfehlung lautet, sich immer zu überlegen, was ein User von diesem Link hat. 

Auch Markus Hövener zeigte eingängige Beispiele für Linkaufbau. Sein Tipp war, sich zunächst gute Vorbilder zu suchen, die bereits gut verlinkt sind. Dazu kombiniert man am besten die Suchbegriffe mit Worten wie „Ratgeber“, „Initiative“, „Studie“ und Ähnlichem. Für das Beispiel „Hundehaltung“ führte er anschaulich vor, dass man hier u. a. auf die Domain graue-schnautzen.de stößt. Diese Initiative für ältere Hunde hat eine vergleichsweise hohe Domainpopularität (d. h., viele unterschiedliche Domains verlinken dorthin). Jetzt schaut man sich die Domain genauer an und analysiert mit entsprechenden Tools, wer diese verlinkt und warum.

„Man muss in Ziel-Websites und Zielgruppen denken“; Markus Hövener

Die zentrale Frage, die man sich laut Hövener stellen muss, lautet: Welche Websites gibt es eigentlich, die

  • eine hohe Domainpopularität und
  • eine hohe Sichtbarkeit haben und
  • die es auch in signifikanter Anzahl gibt,

und was „interessiert“ genau diese Websites? Daraus kann man lernen, welcher Content gewollt, gewünscht und gemocht wird – und damit letztlich ganz natürlich Links anzieht. Nach seiner Erfahrung funktioniert Content-Marketing mit dem Ziel, Links aufzubauen, dann optimal, wenn man es wirklich zielgerichtet angeht und sich vor allem auf gute Linkquellen konzentriert.

Zineb Ait Bahajji und Johannes Müller, beide Mitarbeiter von Google aus der Schweiz, widmeten sich in einem Kombivortrag den Themen „Stuctured Data“ und „Mobile“.

Die Probleme, die Google aktuell sieht, zählte Johannes Müller direkt und konkret auf:

  • User möchten/brauchen keine genaue Übereinstimmung der Suchkeywords mit Seiteninhalten, die Suchabsicht ist entscheidend.
  • Es gibt einige wirklich großartige neue Websites, die aus Googlesicht sehr schwer zu finden und zu indexieren sind.
  • User lieben Smartphones und Tablets, aber zu viele Sites sehen auf diesen Endgeräten noch immer „terrible“ aus.
  • Die Schweizer Version einer deutschen Website zu finden, kann sehr frustrierend sein.
  • Das Web hängt den Sicherheitsanforderungen generell stark hinterher, das Vertrauen der User nimmt bereits ab.

Umso wichtiger wird es, Webseiten mit strukturierten bzw. maschinenlesbaren Daten anzureichern, damit die Suchmaschinen besser erkennen können, welche Informationen eine Seite bietet, und v. a., welcher Art diese Informationen sind. Müller bestätigte auch, dass Google teilweise JavaScript lesen könne. Gerade für Sites, die Länderversionen vorhalten, ist es hilfreich, über das Ländertag (rel=“alternate“ hreflang=X) die Möglichkeit zur Erkennung von Land- und Sprachversion im Head der Seite vorzuhalten (Website Boosting berichtete darüber mehrfach; umfassende Infos gibt es direkt bei Google unter: einfach.st/lang4). Durch diese Auszeichnung gibt es seitens Google dann auch keine Probleme mit Duplicate Content, wenn z. B. in gleicher Sprache Seiten für Deutschland, Österreich und die Schweiz angeboten werden. Dies funktioniert dann auch domainübergreifend. Er empfahl ebenso, das sichere HTTPS-Übertragungsprotokoll zu verwenden, und zwar immer und überall. Fehler bei der Mobilisierung von Websites werden negative Auswirkungen auf das Ranking haben.

„It was time for mobile last year, here´s what you should have done. Common mistakes that *will* cost your rankings”; Johannes Müller, Google

Abermals wurde auf den Data Highlighter von Google verwiesen, mit dem man ohne HMTL-Kenntnisse per Klick & Drop Google semantische Informationen über den Inhalt einer Seite mitteilen könne. Der Vorteil ist: Der HTML-Code muss nicht geändert werden. Ein Nachteil ist, dass diese Informationen dann natürlich nicht anderen Suchmaschinen zur Verfügung stehen, weil diese ja nur den Code lesen können, nicht aber die direkt bei Google abgelegten Informationen. Fügt man die strukturierten Daten in den Quelltext der Seite ein und es werden trotzdem keine Rich Snippets angezeigt, stellt Google ein Prüftool (www.google.de/webmasters/tools/richsnippets) zur Verfügung, mit dem man die Fehlerquelle finden oder eingrenzen kann.   

„If sites don´t work at all on mobile, we may demote them in mobile-search”; Zineb Ait Bahajji, Google

Werden Seiten von Smartphones aufgerufen, kann man automatisch eine separate mobile Site ausliefern oder einen anderen, angepassten HTML-Code. Die beste Möglichkeit wäre allerdings, so Bahajji, gleich Responsive Design zu verwenden und damit auch nur einen HTML-Code. Google unterstützt allerdings alle drei Versionen. Sie empfahl aber auch, die entsprechenden Informationen in den Quellcode einzubauen, damit der Robot auch zweifelsfrei erkennen kann, um welche Variante es sich handelt. Vermeiden solle man es, CSS- oder JavaScript-Files für die Suchmaschine zu blockieren (sonst kann ggf. die Weiche zur mobilen Version nicht erkannt werden) oder nicht abspielbare Videos, Sites mit Flash oder Silverlight zu verwenden. Ebenso solle man unbedingt auf fehlerhafte Redirects (Weiterleitungen) achten. Wenn Fehlermeldungen nur für Smartphones erscheinen, kann es ebenso und insgesamt zu Problemen kommen, hob auch Bahajji nochmals hervor.

Alles in allem bot die SMX mit ihrer breitem Themenpalette für jeden genügend Stoff, mit vollen Notizbüchern wieder nach Hause zu fahren, und wurde ihrem Anspruch, die deutsche Leitmesse für Search-Marketing zu sein, erneut spürbar gerecht. Im nächsten Jahr findet die SMX am 17. und 18. März statt – ein Termin, den man sich vielleicht schon jetzt reservieren sollte.