SMX 2010 – Die Search Marketing Expo in München

Mario Fischer
Mario Fischer

Mario Fischer ist Herausgeber und Chefredakteur der Website Boosting und seit der ersten Stunde des Webs von Optimierungsmöglichkeiten fasziniert. Er berät namhafte Unternehmen aller Größen und Branchen und lehrt im neu gegründeten Studiengang E-Commerce an der Hochschule für angewandte Wissenschaften in Würzburg.

Mehr von diesem AutorArtikel als PDF laden

Mit insgesamt 850 Teilnehmern, Ausstellern und Referenten hat die SMX im Vergleich zum vergangenen Jahr (700) deutlich zugelegt. Obwohl zur gleichen Zeit die SES in New York stattfand, waren auch zahlreiche internationale Experten aus den Bereichen Online- und Suchmaschinenmarketing anwesend.

Eines der herausragenden Themen der diesjährigen SMX war der Einfluss von Ladezeiten auf das Ranking in den Google-Suchergebnissen. So wies Uwe Tippmann in seinem Vortrag über die Ranking-Faktoren 2010 ausdrücklich darauf hin, dass die Ladezeiten von Websites ein wichtiges Kriterium für das Ranking seien – mit zunehmender Bedeutung. Getreu dem Motto „Let’s make the web faster“ und dem Ziel, die User Experience zu verbessern, hat Google bereits einige Projekte ins Leben gerufen wie z. B. PublicDNS, die Google App Engine, Speed Tracer und auch Google Chrome. Dies alles seien Anzeichen, so Tippmann, dass Google zunehmend größeren Wert auf Geschwindigkeit legt. Tippmann wies in diesem Zusammenhang auch auf eine Aussage von Matt Cutts von Google hin, die dieser auf der PubCon im November 2009 gemacht hatte und die dies bestätige: „There is a strong lobbying in Google to introduce page load as a new ranking factor into the algorithm.” Zum jetzigen Zeitpunkt sei es aber noch schwer, den Einfluss der Geschwindigkeit auf das Ranking einzuschätzen, da es sich um einen relativ neuen Faktor handele. Laut Tippmann sei Geschwindigkeit allein schon aus Usability-Sicht ein wichtiges Kriterium, denn schnellere Seiten erzeugen mehr Umsatz.

Im selben Panel stellte Marcus Tandler seine Theorie über den Einfluss der Klickrate in den Google-Suchergebnissen auf das Ranking einer Webseite vor. Laut Tandler bezieht Google die Klickrate als menschlichen Faktor in das Ranking mit ein, um sich so nicht ausschließlich auf einen von Maschinen berechneten Algorithmus verlassen zu müssen. Es ist sehr wahrscheinlich, dass ein Teil der Nutzer ein geändertes Ergebnis zu sehen bekommt, so Tandler weiter. Und Google ermittelt, im Sinne von A/B-Testing, wie die Nutzer darauf reagieren. Auch die Bounce-Rate (das Verhältnis, wie viele Nutzer nach dem Klick auf ein Ergebnis bereits nach wenigen Sekunden zu den Ergebnissen zurückkehren und auf ein anderes Ergebnis klicken) sowie Suchverfeinerungen oder auch neue bzw. abweichende Suchanfragen, die ein recht deutliches Indiz für die Unzufriedenheit des Nutzers mit dem Suchergebnis darstellen, fließen hier mit ein, so Tandler. Deshalb seine Schlussfolgerung: „Optimize your Snippet!“. Das Snippet (die Text-Schnipsel, die als Teil der Webseite in den Suchergebnissen angezeigt werden) ist praktisch wie eine kleine „Werbeanzeige“ in den organischen, also unbezahlten Suchergebnissen. Dazu sei es wichtig, verschiedene Varianten zu testen und dem Nutzer das zu bieten, wonach er auch gesucht hat – ganz wie Profis das auch bei der Optimierung von Google-AdWords-Anzeigentexten machen. Tandlers Best-Practice-Tipp: AdWords-Anzeigen für das entsprechende Keyword schalten und denjenigen Anzeigentext mit der höchsten Klickrate als Anhaltspunkt für die Optimierung des Snippets im organischen Bereich heranziehen.

Eines der herausragenden Themen der diesjährigen SMX war der Einfluss von Ladezeiten auf das Ranking in den Google-Suchergebnissen. So wies Uwe Tippmann in seinem Vortrag über die Ranking-Faktoren 2010 ausdrücklich darauf hin, dass die Ladezeiten von Websites ein wichtiges Kriterium für das Ranking seien – mit zunehmender Bedeutung. Getreu dem Motto „Let’s make the web faster“ und dem Ziel, die User Experience zu verbessern, hat Google bereits einige Projekte ins Leben gerufen wie z. B. PublicDNS, die Google App Engine, Speed Tracer und auch Google Chrome. Dies alles seien Anzeichen, so Tippmann, dass Google zunehmend größeren Wert auf Geschwindigkeit legt. Tippmann wies in diesem Zusammenhang auch auf eine Aussage von Matt Cutts von Google hin, die dieser auf der PubCon im November 2009 gemacht hatte und die dies bestätige: „There is a strong lobbying in Google to introduce page load as a new ranking factor into the algorithm.” Zum jetzigen Zeitpunkt sei es aber noch schwer, den Einfluss der Geschwindigkeit auf das Ranking einzuschätzen, da es sich um einen relativ neuen Faktor handele. Laut Tippmann sei Geschwindigkeit allein schon aus Usability-Sicht ein wichtiges Kriterium, denn schnellere Seiten erzeugen mehr Umsatz.

Im selben Panel stellte Marcus Tandler seine Theorie über den Einfluss der Klickrate in den Google-Suchergebnissen auf das Ranking einer Webseite vor. Laut Tandler bezieht Google die Klickrate als menschlichen Faktor in das Ranking mit ein, um sich so nicht ausschließlich auf einen von Maschinen berechneten Algorithmus verlassen zu müssen. Es ist sehr wahrscheinlich, dass ein Teil der Nutzer ein geändertes Ergebnis zu sehen bekommt, so Tandler weiter. Und Google ermittelt, im Sinne von A/B-Testing, wie die Nutzer darauf reagieren. Auch die Bounce-Rate (das Verhältnis, wie viele Nutzer nach dem Klick auf ein Ergebnis bereits nach wenigen Sekunden zu den Ergebnissen zurückkehren und auf ein anderes Ergebnis klicken) sowie Suchverfeinerungen oder auch neue bzw. abweichende Suchanfragen, die ein recht deutliches Indiz für die Unzufriedenheit des Nutzers mit dem Suchergebnis darstellen, fließen hier mit ein, so Tandler. Deshalb seine Schlussfolgerung: „Optimize your Snippet!“. Das Snippet (die Text-Schnipsel, die als Teil der Webseite in den Suchergebnissen angezeigt werden) ist praktisch wie eine kleine „Werbeanzeige“ in den organischen, also unbezahlten Suchergebnissen. Dazu sei es wichtig, verschiedene Varianten zu testen und dem Nutzer das zu bieten, wonach er auch gesucht hat – ganz wie Profis das auch bei der Optimierung von Google-AdWords-Anzeigentexten machen. Tandlers Best-Practice-Tipp: AdWords-Anzeigen für das entsprechende Keyword schalten und denjenigen Anzeigentext mit der höchsten Klickrate als Anhaltspunkt für die Optimierung des Snippets im organischen Bereich heranziehen.

Mikkel deMib bestätigt die Aussage Tandlers und sieht gleichzeitig die Gefahr, dass es Honeypots (Computerprogramme bzw. Maschinen, die menschliches Verhalten simulieren) geben wird, die gezielt eingesetzt werden, um so die genannten Faktoren maschinell zu „optimieren“. „You can fake humans with machines pretty well“, man könne menschliches Verhalten gut mit Maschinen simulieren, so deMib. Dies bestätigte indirekt auch Mario Fischer mit seiner Vermutung, dass es wahrscheinlich irgendwann vermehrt sogenannte Klickbots (Programme, die automatisiert Klicks auf Links ausführen bzw. simulieren) geben werde, die Browsern großflächig untergeschoben werden, ohne dass der Nutzer davon etwas merkt. Darüber hinaus, so Fischer, könnte auch die Aufenthaltsdauer der Besucher auf einer Website – anonym gemessen zum Beispiel über Toolbars – eine zunehmend wichtige Rolle spielen. Insgesamt wurde aus den Beiträgen und den Diskussionen deutlich, dass erwartet wird, dass „menschliche“ Faktoren in Zukunft mit hoher Wahrscheinlichkeit einen größeren Einfluss auf das Ranking bekommen. Das Nutzerverhalten wird, sozusagen als Qualitätskontrolle des Algorithmus, noch stärker als bisher in das Ranking mit einfließen.

Auf der thematisch breit angelegten SMX gab es aber nicht nur Vorträge, die sich um Suchmaschinen drehen. Auch die in der Online-Werbung wichtige Konsumpsychologie oder die Möglichkeiten der Optimierung von Konversionsraten kamen nicht zu kurz. In diesem Themenpanel machte Moritz Habermann darauf aufmerksam, dass die Strukturen vieler Unternehmen noch nicht auf das Thema Nutzerorientierung ausgerichtet sind. Stattdessen stehen Corporate-Identitiy- und Corporate-Design-Richtlinien häufig im Vordergrund und blockieren entsprechende Optimierungs- und Umstellungsmaßnahmen. Geht man das Thema Optimierung aktiv und offensiv an, so sieht Habermann Webanalyse-Software als zentralen Bestandteil, um Probleme überhaupt erkennen und daraus Ziele und Maßnahmen ableiten zu können. Laut Habermann ist es außerdem wichtig, im Laufe des Optimierungsprozesses Nutzer einzuladen und mit ihnen über ihre Wünsche und Anforderungen zu sprechen – denn Nutzer sind unterschiedlich und eben nicht einfach über einen groben Kamm zu scheren. Deshalb sollte man auch „nicht nur auf Amazon schauen und einfach alles nachmachen“.

Wichtig für ein gutes Ranking ist eine solide Backlinkstruktur. Da diese aber nicht gerade einfach herzustellen ist, war auch auf der SMX das Thema „Backlinkaufbau“ eines der meistbesuchten Panelthemen. Wegen der Wichtigkeit wurde es teilweise in mehreren Panels aufgegriffen und ausführlichst diskutiert. Insgesamt war in diesen Vorträgen eine klare Tendenz hin zu qualitativ hochwertigen Links erkennbar. So ist es laut Tippmann sinnvoller, sich auf wenige, dafür aber hochwertige Links zu konzentrieren und hierfür auch entsprechend Zeit zu investieren, anstatt diese Zeit für minderwertige Links zu vergeuden, wie man sie beispielsweise aus Blogkommentaren bekommen kann. Jens Fauldraths Tipp hierzu war: Zunächst nützlichen Content erstellen und anschließend aktiv in die Diskussion und Kommunikation einsteigen, z. B. in themenrelevanten Foren und Blogs, aber nicht allein und vordergründig aus dem Grund, dort einen Backlink zu hinterlassen, sondern vielmehr, um sich als Experte für dieses spezielle Thema zu profilieren und darüber mit Menschen und potenziellen Kunden zu sprechen.  Dann kann man auch den einen oder anderen Link loswerden – das ist „hochgradig sinnvoll“, so Fauldrath. Christoph Cemper wies darauf hin, dass beim Linkaufbau eine gesunde Mischung ausschlaggebend für den Erfolg sei. Man sollte deshalb auch schon mal „schlechte“ Links einsammeln, so Cemper. Er empfahl den Zuhörern, sich an der Linkstruktur der Mitbewerber – also derjenigen Seiten, die für das zu optimierende Keyword bei der Suchmaschine auf den obersten Positionen stehen – zu orientieren. Fast genauso wichtig ist es aus seiner Sicht, dass man von der eigenen Website auch auf andere gute und themenrelevante Webseiten verlinkt, dies werte die eigene Seite auf. Einen weiteren wertvollen Tipp, um ungenutztes Linkpotenzial bzw. tote Links zu reaktivieren, gab es von Mario Fischer. So rät er dazu, die eigene Webseite regelmäßig mithilfe von Xenu auf nicht mehr vorhandene Seiten zu überprüfen. Falls diese nicht mehr vorhandenen Seiten eingehende Links von anderen Webseiten besitzen, sollten Sie diese Links entweder aktualisieren lassen oder die einzelnen Webseiten auf thematisch passende Seiten (im schlimmsten Fall die Startseite) weiterleiten. Solche Quick-Wins werden oft unterschätzt.

Ein weiteres Thema der SMX war die zunehmende Bedeutung der Universal Search – auch Blended Search genannt. Darunter versteht man die zusätzliche Einblendung von News, Bildern, Videos, Produktsuchergebnissen, Landkarten etc. zu den bisherigen reinen Textergebnissen. Hier hat sich in den letzten drei Jahren sehr viel verändert, vor allem in Bezug auf die Anzahl der Ergebnisse und Klickmöglichkeiten in den Suchergebnissen, so Marcus Tober. „SEO befindet sich in einer Evolution, da jede einzelne Google-Nische stark losgelöst ist vom klassischen SEO.“ Er empfiehlt, auf möglichst viele, aber zum eigenen Angebot passende Bereiche der Universal Search zu optimieren, um so die Präsenz in den Suchergebnissen und dadurch auch den Suchmaschinen-Traffic zu steigern. Bei einer von Searchmetrics im Februar 2010 durchgeführten Analyse der Suchergebnisse für 6,1 Mio. Keywords hatten 61 % mindestens eine und 16 % der Suchergebnisse gar zwei Universal-Search-Integrationen. Am häufigsten wurden Ergebnisse der Video- und Bildersuche eingeblendet. Tobers Tipp zur Optimierung für die Google-Bildersuche: Bilder möglichst einfach (keine Verschachtelung mehrerer HTML-Elemente) und in guter Qualität einbinden.

Wer über die Universal Search viele Besucher abgreifen möchte, sollte sich mit Google News beschäftigen. Keywords mit hohem Suchvolumen haben die meisten News-Einblendungen, die zudem häufig sehr weit oben in den Suchergebnissen gelistet werden, so Christoph Burseg. Er wies aber zugleich darauf hin, dass News-Traffic in der Regel nur wenige Konversionen bringt, da es sich meist um informationsorientierte Suchanfragen handele. Um in der Universal News Search gelistet zu werden, muss sich die Website bzw. News-Quelle zunächst in Google News selbst beweisen und sich dort ein gewisses Vertrauen erarbeiten. Dazu benötigt man aber regelmäßig, am besten tagesaktuell, neue Artikel. Erst wenn man in Google News gut gelistet wird, wird man auch in den normalen Suchergebnissen im fallweise eingeblendeten Newsteil gezeigt.

Insgesamt hat die SMX 2010 gezeigt, dass die Anforderungen des Suchmaschinenmarketings und damit auch an die Online-Marketer auch künftig weiter steigen werden. Das notwendige Know-how wird komplexer und spürbar breiter. Langfristigen Erfolg wird wohl nur der- oder diejenige haben, der/die sich tief gehend, umfassend und vor allem rechtzeitig mit diesen Themen auseinandersetzt. Es gibt wohl wenig so dynamische Branchen, in denen man sein Wissen fortlaufend und mit hoher Geschwindigkeit ständig weiter ausbauen muss. Was viele noch gar nicht richtig begriffen haben: Das ist eigentlich eine gute Nachricht!

Website Boosting fragt nach: Was sind die Top-SEO-Themen für das Jahr 2010?

Alan Webb (ABAKUS Internet Marketing GmbH)
SEOs sollten tiefer in die Thematik der Universal Search, wie zum Beispiel die Google-Produktsuche, aber auch lokale Suchergebnisse, einsteigen. On-Page wird sich vermutlich wenig ändern. Es stellt nach wie vor einen relativ geringen Teil des Google-Algorithmus dar. Off-Page wird es höchstwahrscheinlich neue Filter geben, vor allem hinsichtlich der Erkennung von Link-Spam sowie bezahlten Links.

Thomas Promny (Gimahhot GmbH)
Universal Search wird an Bedeutung gewinnen. Insgesamt setzt sich jedoch der Trend fort, dass SEO zunehmend schwieriger wird und es dadurch immer weniger Möglichkeiten zur einfachen Manipulation geben wird. Das heißt, wir müssen gute Produkte bauen, die langfristig funktionieren. Die strategische Entwicklung von Online-Produkten und deren Vermarktung wird in diesem Zusammenhang immer wichtiger.

Christoph Berger (intergenia AG)
Seit einigen Monaten gibt es eine interessante Erscheinung: Keyword-Domains. So ranken beispielsweise .de oder .com Keyword-Domains zum Teil sehr weit vorne mit einem Backlinkprofil, welches lediglich einem Bruchteil des Backlinkprofils der anderen Seiten entspricht. Das ist vor allem für Neueinsteiger interessant, die keine alten und etablierten Domains besitzen. Ich bin sehr gespannt, wie lange das noch so weitergehen wird.

Ben Hendrickson (SEOmoz)
SEO war bisher sehr erfolgreich und es gibt viele effektive Möglichkeiten zur Optimierung. Welche davon tatsächlich funktionieren, wissen wir nur durch tief gehende Analysen, die in der Praxis aber häufig nur schwer durchführbar sind. SEO zu messen und quantifizierbar zu machen wird für den Erfolg der gesamten SEO-Industrie künftig eine wichtige Rolle spielen.

Mikkel deMib (deMib.com)
Suchmaschinen werden zunehmend besser darin, Qualität z. B. von Backlinks, aber auch von Inhalten zu erkennen und zu bewerten. Bisher sind Suchmaschinen eher auf Popularität fokussiert. Außerdem werden Suchmaschinen im Hinblick auf personalisierte Ergebnisse deutlich zulegen und ihre Algorithmen und Mechanismen verfeinern. Infolgedessen wird die Optimierung zunehmend schwieriger, da diese Faktoren nur schwer zu manipulieren sind.

Jens Fauldrath (Deutsche Telekom AG)
Für Inhouse-SEOs sollte der konsequente Ausbau der Informationsarchitektur weiter im Vordergrund stehen. Hier sind viele deutsche Websites, vor allem im Vergleich zu amerikanischen, durchaus noch etwas hinten dran. Ein weiteres großes Thema ist das Google-Update „Caffeine“. Es wird sicherlich erst einmal wackeln – aber keine Panik! Man muss zunächst genau beobachten, was da passiert, um daraus Lehren zu ziehen und diese anschließend in die Strategie mit einzuarbeiten.