Österreich ruft: SEO, komm!

Mario Fischer
Mario Fischer

Mario Fischer ist Herausgeber und Chefredakteur der Website Boosting und seit der ersten Stunde des Webs von Optimierungsmöglichkeiten fasziniert. Er berät namhafte Unternehmen aller Größen und Branchen und lehrt im neu gegründeten Studiengang E-Commerce an der Hochschule für angewandte Wissenschaften in Würzburg.

Mehr von diesem AutorArtikel als PDF laden

Die diesjährige Konferenz für Suchmaschinenoptimierung lockte 650 Teilnehmer und Teilnehmerinnen nach Salzburg. Den Teilnehmern wurden am ersten Tag ein sog. Tool-Battle geboten und am zweiten Tag gab es in 29 Vorträgen SEO-Wissen satt.

Die Veranstalter, Christoph C. Cemper und Oliver Hauser, zeigten sich zufrieden, dass auch so viele Besucher aus Deutschland nach Salzburg kamen, und hatten u. a. massiv in Sachen WLAN-Unterstützung aufgerüstet. Die 24 eigenen Kanäle waren tatsächlich für 650 Nutzer ausgelegt – und trotzdem ging die Internetverbindung schon nach kurzer Zeit in die Knie. Einer der Gründe war wohl, dass die Teilnehmer ohne nachzudenken massenweise über ihre Smartphones Hotspots für ihre Notebooks eröffneten und diesen dann auch noch Namen wie „SEOkomm“ gaben. Trotz des fünfstelligen Betrages, den die Veranstalter in eine vernünftige Anbindung ans Web investiert hatten, war an Datenaustausch daher nicht mehr zu denken und das Gemurre der Besucher war deutlich zu spüren. Offenbar greift es mehr und mehr um sich, auf Konferenzen das Hauptaugenmerk nicht mehr auf die Inhalte der Referenten zu legen, sondern möglichst viel zu twittern oder gleich live alles in den eigenen Blog zu schreiben, was man hört. Die ersten bekommen die besten Backlinks – wen verwundert das, wo doch ausschließlich Suchmaschinenoptimierer oder solche, die es werden wollen, anwesend waren.

Am Vortag fand der sog. Tool-Battle statt, bei dem sich ca. 250 Teilnehmer einfanden und die Erwartung hatten, dass die Anbieter einiger SEO-Tools, Maike Benske für XOVI, Marcus Tober für Searchmetrics, Christoph C. Cemper für die LinkResearchTools und Sören Bendig von SEOlytics, einander eine Schlacht (Battle) lieferten. Der Moderator Evert Veldhuijzen dämpfte hier allerdings gleich von Beginn an ab: „Es wird keine blutigen Nasen oder blaue Augen geben“ hieß es, „die Teilnehmer sollen die Gewinner sein“. Der Battle wurde in verschiedene Runden geteilt und die Anbieter erklärten, wie man mit ihren Tools u. a. eine OnSite-Optimierung, eine Mitbewerberanalyse, eine Keywordresearch oder Linkbuildingmaßnahmen durchführen kann. Beim Thema „Nischenfindung“ wurde gezeigt, wie man dies mittels Zugriff auf (eigentlich ja) historische Daten bewerkstelligen könnte. Ob das wirklich zukunftsorientiert gedacht ist, sei dahingestellt. Insgesamt hatten sich wohl einige Teilnehmer mehr Insights und mehr echtes „Gegeneinanderantreten“ versprochen, um die unterschiedlichen Stärken (und Schwächen) der Tools besser einschätzen zu können.

Der eigentliche Konferenztag wurde mit einer grandiosen Keynote von Marcus Tandler, auch bekannt als Mediadonis, eröffnet. Er stellte u. a. die Vermutung an, Google finge mittlerweile an (z. B. über „blaue“ Briefe bzw. E-Mails), die Sitebetreiber dazu zu bringen, endlich etwas vorsichtiger in Sachen SEO zu sein. Die Botschaft lautete klar, dass SEO für 50 € eben nicht funktioniert.

Google ist mittlerweile laut Tandler ganz gut darin, sog. „One-Hit-Wonder“ zu erkennen. Daher funktionieren Linkbaits (Köderinhalte im Web, die Links anlocken sollen) z. B. mit Infografiken nicht mehr so gut wie früher. Es kommen zwar sehr schnell viele Links, aber die Nachhaltigkeit fehlt. Solche gehypten Seiten stürzen nach einer gewissen Zeit dann schnell wieder ab. Man muss daher immer sauber recherchieren und analysieren, was wo am besten funktioniert, empfahl Tandler. Er bestätigte auch die mittlerweile häufiger geäußerte Vermutung, dass das Author-Tag als Kennzeichnung, wer einen Beitrag geschrieben hat, für Google sehr wichtig ist. Über den Social Graph könnten sie analysieren, wer gute Autoren sind und wo diese schreiben.

„Great Content comes from great Authors.″

Ein weiteres Signal für Google ist es, so Tandler, ob eine Suche „refined″ wird, also inhaltlich leicht verändert neu eingegeben wird, oder ob man danach etwas völlig anderes sucht. Letzteres ist positiv, denn es zeigt, dass der Suchende auf der letzten Zielseite offenbar gefunden hat, was er suchte. Werden Suchen immer aufs Neue wiederholt und erfolgen die Klicks auf immer dieselben Ergebnisse, würde auch dies gemessen und als positiv gewertet, vermutet Tandler.

Christop Cemper, Mitveranstalter der Konferenz und Anbieter der LinkResearchTools, bestätigte anschließend Tandlers Aussage, dass das Linkwachstum bzw. die Wachstumsrate ein mittlerweile von Google verwendetes Signal sei. „Wenn eine Site pro Monat z. B. 50-100 Links bekommen hat und plötzlich nur noch 2-3, dann hat das meist einen gewichtigen Grund“, sagte Cemper und weiter: „Vielleicht wurde sie verkauft oder die heißen Zeiten für diese Domain sind in den Augen der Webcommunity (als Linkgeber, Anm. der Red.) vorbei?“

„Von Linknetzwerken sollte man sich fernhalten.“

Viele Links von der gleichen IP-Adresse wären gemäß Cemper ein ähnlich schlechtes Signal. Auch er warnte wie viele andere Experten ganz explizit vor Linknetzwerken. Insbesondere von solchen, die ganz offensichtlich und mit großem Werbetamtam Links verkaufen oder in großem Stil tauschen, solle man sich tunlichst fernhalten. Das offensichtliche Problem dabei sei, dass viele andere früher oder später auch dort einkaufen oder tauschen und man daher vorher nie wisse, mit wem man sich am Ende per Link und offen für die Augen der Suchmaschinen „verbinde″.

Marcus Tober von Searchmetrics zeigte aktuelle Analysen für Rankingfaktoren in Österreich und stellte diese seiner Erhebung des letzten Jahres gegenüber. Genauer gesagt ging es um gemeinsame Faktoren, die gut rankende Seiten aufweisen – ob und wie weit sie tatsächlich für das gute Ranking verantwortlich sind, könne natürlich letztlich nur Google selbst beantworten. Auch er bestätigte, dass

  • eine gute CTR (Klickrate in den Suchergebnissen),
  • der Traffic pro URL und
  • eine niedrige Bounce-Rate, also wenige kurzfristige Rückkehrer zu Google, sich positiv auswirken, aber
  • eine hohe Verweildauer allein kein gutes Ranking bewirke, aber gegen Googles Panda-Filter helfen könne.

Nach einer internen Analyse von Searchmetrics hat sich laut Tober gegenüber dem letzten Jahr nichts Spürbares daran geändert, dass Seiten, die Top-Rankings haben, auch sehr viele Backlinks aufweisen.

Tober berichtete von einem interessanten Test aus den hauseigenen Labs. Er hatte mit seinem Team je zwei themengleiche Blogartikel verfasst und die Wordpress-Vorlagen 1:1 in HMTL nachgebaut, um die Blogfunktionalitäten wie Pings und interne sowie externe Links kontrollieren bzw. vermeiden zu können. Zwei davon wurden dann gezielt mit Facebook Likes versehen, die anderen beiden mit Google Plus-One-Votings. Während die Facebook Likes auch nach acht Tagen keine Auswirkungen zeigten, führten die Google+-Signale innerhalb eines Tages zu Rankings und rankten bei ansonsten gleichen Bedingungen besser als die später auftauchenden anderen beiden Seiten, die mittlerweile mit 566 und 101 Likes „versorgt“ wurden. Nach insgesamt 16 Tagen rankten die beiden mit Google Plus-Ones markierten Beiträge mit allen für sie relevanten Keywords auf den Positionen eins und zwei, während die mit Likes Versehenen nach und nach auf die zweite Ergebnisseite zurückfielen. Sein Fazit: Google+ verhilft innerhalb kürzester Zeit zu Rankings. Dabei fand er übrigens nebenbei auch heraus, dass das bloße Aufrufen einer Seite mit Googles Chrome-Browser noch zu keiner Indexierung der Seite führt.

„Wer sucht einen Response-Trail-Laufschuh in Collegiate Navy?“

Marcus Höevener präsentierte 20 interessante und lehrreiche Fallstudien. Er zeigte u. a. an Beispielen einen gängigen Fehler, den viele Hersteller machen. Sie optimieren auf ihren eigenen Produktnamen und vernachlässigen generische bzw. allgemein beschreibende Begriffe, die in der Regel sehr viel häufiger gesucht werden. Das Problem setzt sich bei den kreativen Farbbezeichnungen fort. Während die Suchenden Farben wie Weiß, Rot oder Grau für spezifizierte Abfragen verwenden, bezeichnen die Hersteller ihre Farben auf den Webseiten mit Resedagrün, Timber Melange, Dark Granit oder auch wie Adidas als Infrared oder Collegiate Navy. Hier muss die beste Suchmaschine versagen.

Höevener wies am Rande auf einen weiteren, bisher wenig diskutierten Umstand beim Abbau von (schlechten oder vermeintlich schlechten) Backlinks hin: Schreibt man einen Websitebetreiber an, er möge bitte einen Link entfernen, macht dieser das in der Regel ohne jede Rückfrage, ob der Anfragende auch dazu berechtigt sei. Prinzipiell könnte jemand somit auch die Backlinks eines Mitbewerbers entfernen lassen. Hier eröffnet sich im Stillen womöglich ein sehr unschönes Betätigungsfeld für unseriöse Zeitgenossen.

Bastian Grimm widmete seinen Vortrag der „Black-Hat Protection“. Es ging darum, negatives SEO zu verstehen, damit man es verhindern kann. Die Frage war und ist, ob z. B. ein Mitbewerber meiner eigenen Domain durch bewusst schlecht gemachten Linkaufbau schaden kann. Süffisant zeigte Grimm Googles diesbezügliche Aussagen in diesem Jahr auf die Frage, ob dies überhaupt möglich sei:

There´s nothing a competitor can do to harm your ranking or have your site remove from our index […]
Google, Anfang 2012

There´s almoust nothing a competitor can do to harm your ranking or have your site remove from our index […]
Google, April 2012

Google works hard to prevent other webmasters from being able to harm your ranking or have your site removed from our index.
Google, aktuelles Statement (http://einfach.st/workhard)

Grimm berichtete von Unternehmen, die mittlerweile relativ offen per E-Mail anbieten, dass das Abschießen der Konkurrenz erheblich günstiger und schneller realisierbar sei, als selbst SEO-Maßnahmen einzuleiten. Ein Unternehmen warb damit, der Firmensitz sei auf den Seychellen und dort seien die Auftragsdaten sicher. Dazu die unvermeidliche Garantie, dass man sein Geld zurückerhalte, wenn es nicht gelänge, die „Konkurrenz … von den Plätzen vor Ihnen radieren zu können“. Erschreckend, für welche Zwecke SEO-Know-how zum Teil eingesetzt wird. Bastian Grimm erklärte dann auch im weiteren Verlauf seines Vortrags, wie und wo Profis bei solchen Aufträgen den Hebel ansetzen und wie sie in der Regel arbeiten. Und selbstverständlich zeigte er auch gleich die passenden Abwehrmaßnahmen bzw. auf welche Dinge man besonders achten müsse, um Negative SEO rechtzeitig erkennen zu können.

„Es gibt keinen 100%igen Schutz gegen Negative SEO.“

In der letzten Session standen dann Klaus Hofbauer, Ralf Schwoebel, Cristoph C. Cemper, Evert Veldhuijzen, Marcus Tandler und außerdem Ulrich Lutz vom Search-Quality-Team von Google in einer Podiumssession dem Publikum Rede und Antwort. Wie zu erwarten war, wurden die meisten Fragen an Ulrich Lutz von Google gerichtet. Dieser bestätige sinngemäß, dass das Disavow-Tool nur für ganz spezielle Anwendungsfälle gedacht sei, z. B., wenn man eine Warnmail von Google bekommen habe und nicht in der Lage sei, eine große Menge vorhandener Backlinks entfernen zu lassen. Er wies außerdem darauf hin, dass es etwas dauern können, bis alle gemeldeten Links von Neuem gecrawlt werden und man ggf. positive Auswirkungen sehen könne. Rückmeldungen von Google in den Webmaster-Tools seien laut Lutz schwierig, weil es ein kontinuierlicher Prozess sei und es eben nicht einen definierbaren Zeitpunkt gebe, an dem die Aufgabe(n) abgeschlossen sei(en). Er riet aber dazu, Linklisten vor dem Hochladen in das Disavow-Tool in jedem Fall sauber zu prüfen, damit man keine Links entwertet, die eigentlich gut waren. Als Folgefrage stand dann im Raum, ob man seiner Domain schade, wenn man das Disavow-Tool nutze, was Lutz vermeinte. Marcus Tandler ergänzte, dass Google generell nicht „nachtragend“ sei.

Auf die Frage, ob man für Ausschlüsse von Seiten aus dem Index besser ein Verbot in die Steuerdatei robots.txt stellen oder das Noindex-Tag auf den betroffenen Seiten einfügen solle, sprach sich Lutz klar für die Tag-basierte Variante aus.

Eine weitere Frage aus dem Publikum zielte darauf ab, ob Google denn Daten aus den Google-Analytics-Accounts verwende. Dazu meinte er, dass er davon nicht ausgehe. Die Signale aus „Short Klicks“ (damit sind Klicks auf Suchergebnisse gemeint, nach denen Suchende per Backbutton relativ schnell dorthin zurückkommen und einen neuen Klick auf ein anderes Ergebnis auslösen, m. a. W. die Bounce-Rate; Anm. der Red.) würden aber mit aufgenommen.

Die unausweichliche Frage, wenn Mitarbeiter von Google anwesend sind, wurde denn auch am Schluss noch gestellt: „Was kommt nächstes Jahr?“ Ulrich Lutz beantwortete diese Frage mit einem schelmischen Grinsen: „Die Suchergebnisse werden noch besser!“

Alles in allem waren erfrischend viele neue Vorträge zu hören und auch für Teilnehmer mit sehr viel Vorwissen gab es wohl genügend neue Facetten und Blickwinkel, um noch etwas zu lernen. Durch die gut und großzügig angelegten Pausen war angenehmerweise auch genügend Raum für das auf solchen Veranstaltungen immer wichtige Networking.