SEO-Wissen satt: Die SEOkomm

Mario Fischer
Mario Fischer

Mario Fischer ist Herausgeber und Chefredakteur der Website Boosting und seit der ersten Stunde des Webs von Optimierungsmöglichkeiten fasziniert. Er berät namhafte Unternehmen aller Größen und Branchen und lehrt im neu gegründeten Studiengang E-Commerce an der Hochschule für angewandte Wissenschaften in Würzburg.

Mehr von diesem AutorArtikel als PDF laden

Am 25. November 2011 fand zum zweiten Mal die SEOkomm im österreichischen Salzburg statt. International gefragte Referenten gaben in drei parallelen Tracks ihr Wissen an die Teilnehmer weiter. Insgesamt folgten 500 Teilnehmer, davon etwa ein Drittel aus Deutschland, dem Ruf von Christoph C. Cemper, Oliver Hauser und Hans-Peter Trauning, den Trägern der Konferenz. Website Boosting war vor Ort und hat die wichtigsten Trends, Tipps und aktuelle Themen für Sie zusammengestellt. Für alle, die nicht auf der Veranstaltung waren, ergeht daher ein eindringlicher Lesebefehl! ;-)

Eine „Liebeserklärung an SEO“. Mit diesem Titel startete die Keynote von Markus Tandler (auch als Mediadonis bekannt). Er wies zunächst völlig zu Recht darauf hin, dass SEO-Wissen mittlerweile eine extrem kurze Halbwertszeit hat. Viele Agenturen tun sich schwer damit, am Ball zu bleiben – nicht zuletzt, weil in der Branche extremer Zeitmangel für Weiterbildung herrscht – die Auftragsbücher sind voll. Wie immer hatte Tandler viele interessante und vor allem aktuelle Dinge auf seiner Agenda – hier die wichtigsten seiner in der Regel mit Zitaten oder Patenten belegten Aussagen: Ja, Google nutzt Signale von Twitter für das organische (unbezahlte) Ranking und auch für seine News. Man wertet dort die Anzahl Tweets und ReTweets für eine Seite aus. Wer nun meint, mit ein paar eigenen Accounts die eigenen Seiten billig pushen zu können, den warnte Tandler sogleich. Beziehungen zwischen Social-Media-Accounts seien von den Suchmaschinen leichter zu durchschauen als Linknetzwerke. Es sei relativ schwer, echt gute bzw. unabhängig wirkende Accounts zu erstellen und zu pflegen. Die kleinste Unachtsamkeit kann dazu führen, dass diese nicht mehr als unabhängig gewertet und damit für den angedachten Zweck nutzlos werden. 

"Social Spam ist leicht identifizierbar."

Ein Patent von Google offenbart, dass Blogbeiträge sehr wohl einen wichtigen Stellenwert haben und ein gesonderter „Microblog-Ranker“ zusammen mit dem Web-Ranker die Suchergebnisse beeinflusst. So können innerhalb von Minuten nach der Publikation einer Seite Relevanz und Ranking fixiert werden. Google arbeitet allerdings daran, diese Zeit ständig weiter zu verkürzen. Ein weiteres Patent von Google zeigt, dass auch das Publikationsdatum eine wichtige Rolle spielen kann. Allerdings ist „Freshness“ kein Garant für ein langfristig stabiles Ranking. Den Content einer Seite ständig zu verändern, um Aktualität vorzugaukeln, ist also unsinnig. Gewertet wird hierbei nämlich das Datum der Erstaufnahme in den Index, nicht das Datum eventueller Änderungen.

"Exact Match Anchor Textlinks sind tot! – Sofern das Verhältnis zu hoch ist."

Tandler vertrat die Auffassung, dass das Setzen exakter Keyword-Ankertexte (der Text auf einem Link) beim Aufbau von Backlinks immer gefährlicher wird, sofern man einen gewissen Prozentsatz – den natürlich nur Google genau kennt – überschreitet. Mittlerweile sei es auch wichtig, mit saisonal vorkommenden Keywords zu verlinken, sofern dies inhaltlich zum Thema passt. Auch dies kann die Relevanz einer Seite erhöhen, wie Tandler an einem Beispiel zeigte. Ebenso geht wohl mittlerweile auch ein sog. „Credential Score“ (unterteilt in einen Authority Score und Contributiveness Scores) mit in das Ranking ein. Dieser weist aus, wie vertrauenswürdig bzw. kompetent eine Person hinter einem Social-Media-Account ist. Mit anderen Worten wird ausgewertet, wie andere Menschen in sozialen Netzwerken auf Publikationen dieser einen Person re- bzw. interagieren. Offenbar steht uns also eine Art People-Rank bevor und man tut gut daran, mit der eigenen Online-Reputation bereits jetzt sorgsam umzugehen, um die richtigen „Content Author Badges“ (ein weiteres Google-Patent) „verliehen“ zu bekommen. Tandlers zeigte sein Fazit in einer Pyramide, an deren Spitze „Social“ noch vor „Link Building“ stand. Es wird also zunehmend wichtiger, auch die richtigen Signale aus sozialen Netzwerken zu bekommen – stupider Linkaufbau allein genügt nicht mehr. Trotzdem zieht intelligenter Linkaufbau natürlich noch immer recht gut und nicht umsonst mahnt Matt Cutts, der oberste Rankinghüter bei Google: „Don´t buy Links!“ Er sage das nur deswegen, weil es Google eben nicht automatisiert schaffe, smarten Linkaufbau zu erkennen – so die These von Markus Tandler.

Backlinks sind also trotz aller neuen Signale aus dem Bereich „Social“ nach wie vor wichtig. Aber woher bekommt man vernünftige Daten zu den eigenen Backlinks und zu denen der Mitbewerber? Dieser Frage gingen Markus Hoevener und Christop C. Cemper nach, indem sie verschiedenen Linkdatenbanken auf den Zahn fühlten. Das ernüchternde Ergebnis: Keine Linkdatenbank liefert auch nur annähernd eine perfekte Abdeckung. 

Die Google-Webmaster-Tools (GWT) zeigten bei Hoeveners Analyse etwa einen Anteil von 19 % für sog. Nofollow-Links (im Programmiercode „entwertete“ Links) an, was ihn zu der Frage veranlasste, ob Nofollow-Links wirklich unwichtig sind. Interessant zu sehen war, dass sich Seiten im Google-Index befinden, deren (Back-)Links Google also kennt, aber trotzdem auch über einen längeren Zeitraum hin nicht als Links in den GWT anzeigt. Möglicherweise könnte dies ein Indiz sein, dass Links von solchen Seiten wenigstens neutral oder schlimmstenfalls schädlich sind. Am Ende blieb das Problem, dass kein Tool, auch nicht das von Google, verlässlich sagen kann, ob die angezeigten Links wirklich gewertet werden. 

Marco Janck (Seonaut), der Veranstalter der SEO-Campixx, hatte seine Expertentipps als kleine Waffenkunde verpackt und empfahl als Erstes, doch mal das eigene Domainportfolio zu durchstöbern. Seiner Erfahrung nach haben viele SEO alte, nicht mehr benutzte Domains rumliegen bzw. am Netz, die man bestens reaktivieren könnte – wenn man sich nur mal die Zeit dazu nähme. Wie ja bekannt ist, haben ältere Domains einen Vertrauensvorschuss bei Suchmaschinen und den sollte man gezielt einsetzen und solche „Werte“ nicht weiter brachliegen lassen.

"Ein Artikel inklusive eines Links kostet zwischen 50 und 1.500 Euro." – Marco Janck

Soll man Links mieten oder kaufen? Janck hatte dazu eine klare Meinung und empfahl, besser permanente Links zu kaufen. Seiner Einschätzung nach liegt der Durchschnittspreis für werthaltige Contentlinks bei etwa 250 Euro. Linkpakete, so wie sie einige Agenturen anbieten, sollte man sich vor dem Kauf oder der Miete genauer ansehen, so Janck, denn nicht selten kann in solchen Paketen auch ein gehöriger Anteil an wertlosen oder gar schädlichen Links stecken. Die weit bessere Alternative ist, sich selber aktiv um Linkpartner zu bemühen, als sie bequem mit Geld vom Sessel aus zu ordern. Dazu benötigt man allerdings ein gutes Networking. Man muss auf Veranstaltungen und Konferenzen gehen und Leute kennenlernen. Das ist harte Arbeit, lohnt sich aber in jedem Fall. So gesehen ist die Sparstrategie vieler Unternehmen, die Mitarbeiter der Online-Abteilungen nur auf eine Konferenz pro Jahr zu lassen, keine besonders wirtschaftliche Entscheidung. Anstelle des vermeintlich eingesparten Geldes muss an anderer Stelle ein Vielfaches mehr ausgegeben werden. Die richtigen Verlinkungsmöglichkeiten herauszufiltern, benötigt Know-how und Fingerspitzengefühl. Dieses Wissen kann und sollte man lernen. „Trotzdem rennen alle immer in die Blackhat-Sessions und denken, das ist super einfach“, so Janck.

"Schicken Sie Ihre Online-Leute auf Konferenzen!"

Ein unumstrittenes Highlight war sicherlich der Vortrag von Jonas Weber (siehe auch Website Boosting Ausgaben 8 und 9 dieses Jahres), einem ehemaligen Mitarbeiter von Google, der in Dublin im Search-Quality-Team gearbeitet hat, wo man sich mit der Spam-Abwehr beschäftigt. Er räumte zunächst mit einer immer wieder auftauchenden Vermutung auf: Ein Hochstufen einer Site ist intern bei Google nicht möglich. Das Entfernen natürlich schon, was man mit der Abfrage „site:diebetroffenedomain.de“ im Suchschlitz leicht überprüfen kann. Kommen bei dieser Abfrage keinerlei Treffer, ist die Domain nicht (mehr) im Index vertreten. Manuelle Abstrafungen seien allerdings sehr selten und dies würde nur bei bestimmten Ausnahmen gemacht. Weber erläuterte auch, dass Google „Fehler“ beim SEO verzeiht und nach einer unterschiedlichen Sperrdauer (je nach Schwere des Verstoßes) eine Seite auch wieder aufnimmt – sofern der Grund der Beanstandung behoben wurde. Wer diese Toleranz missbraucht, kann allerdings auch schnell dauerhaft aus den Trefferlisten ausgeschlossen werden. All diese Dinge laufen in der Regel automatisiert ab. Das Panda-Update ist laut Weber ein gutes Beispiel für diese Art Automatisierung. Entgegen vielen Meinungen ist Panda kein Straffilter und wird als Update monatlich dauerhaft gefahren. Manuelle Eingriffe fänden hier nicht statt. Wenn sich zu viele negative Signale für eine Seite oder Domain aufsummieren, greift Panda und stuft diese automatisch zurück. Allerdings kehrt man auch automatisch wieder auf die ursprünglichen Positionen zurück, wenn man unter die kritische (Punkte-)Grenze zurückfällt. Einen Reinclusion-Antrag (zur Wiederaufnahme in den Index) zu stellen, ist hier also nicht nötig und bringt auch nichts. Die Reinclusion-Anträge würden übrigens tatsächlich manuell von Google-Mitarbeitern geprüft. Wenn man einen solchen Antrag stellt, sollte man dies unbedingt nur dann tun, wenn die Site tatsächlich „sauber“ ist. Werden noch vermeintlich gut versteckte Tricks verwendet, kann dies böse ins Auge gehen. Den Spam-Fightern entgeht bei einer manuellen Analyse einer Site in der Regel nichts, denn sie haben mächtige Werkzeuge zur Verfügung, die einen nahezu kompletten Überblick erlauben.   

Google bringt etwa zwei neue Spam-Filter pro Arbeitstag online. Die Auswirkungen der meisten davon werden in der Masse gar nicht bemerkt, in der Regel werden Probleme bei Websites in letzter Zeit sowieso pauschal, aber unberechtigt auf das Panda-Update geschoben. Nach Meinung von Jonas Weber fließt über das Panda-Update (fortlaufend!) vor allem sehr stark das Benutzerverhalten mit in das Ranking ein. Das macht gegenüber vielen anderen Spekulationen auch sehr viel Sinn. Seiten mit dünnem oder wenig nützlichem Content werden schnell wieder verlassen. Das ist wohl – großflächig ausgewertet – eines der besten Signale für Google, welche Websites die Welt eben nicht braucht. Das wohl augenfälligste Signal dürfte ein krasses Missverhältnis zwischen Sitebesuchern via Google-Suchergebnisse versus andere Zutrittskanäle (z. B. über Links von anderen Seiten oder direkte Eingaben der URL) sein. Bekommt eine Site fast ausschließlich Traffic über Google, liegt wohl eindeutig eine falsche Einschätzung über die Bewertungsalgorithmen vor. Gute Positionen werden ja in der Regel vor allem auch durch „gute“ Links von außen erzielt. Google wertet natürlich auch Links mit aus, die SEO-motiviert gesetzt wurden. Über diese kommt aber eben um Unterschied zu „echten“ Links von guten Sites nur wenig oder sogar kein Traffic. Dies kann über das Benutzerverhalten (z. B. die Toolbardaten oder den eigenen Chrome-Browser) recht gut erkannt und hochgerechnet werden. Damit ist Google in der Lage, den Wert eines Links auch dahin gehend zu prüfen, ob Menschen ihn anklicken oder ob er relativ verwaist irgendwo im Web steht. Wenn man bedenkt, welch umfangreiche Daten Google zur Verfügung stehen, ist es ein logischer und sicher auch zielgerichteter Schritt, weil damit die Natürlichkeit des Linkprofils besser eingeschätzt werden kann.

Wer vom Panda-Update betroffen ist, sollte laut Weber vor allem dafür sorgen, möglichst mehr Traffic auch aus anderen Quellen als nur von Google zu bekommen, und sich darum kümmern, dass Besucher die Site nicht gleich wieder verlassen. Am besten gelingt das natürlich durch guten Content. Gut ist auch, mehr sog. „navigational“ Traffic zu bekommen – Suchende geben dabei den Domainnamen (von SEO oft missverständlich „Brand“ genannt) in den Suchschlitz ein. Dies ab jetzt selbst zusammen mit ein paar Bekannten zu machen, ist sicherlich nicht genug. Solche Muster werden von Google recht zuverlässig erkannt und ignoriert. Gut wäre ebenfalls, so Weber, die Flächen für Affiliate/Ads und Links zu reduzieren. 

Einen sehr wichtigen Tipp gab Weber noch am Ende: Wer zukünftig von einem der etwa monatlichen Panda-Updates betroffen ist, sollte schnell reagieren. Google testet nämlich nach einem Roll-out erst immer auch auf sog. „False-Positives“ (gute Sites, die ungewollt betroffen wurden) und justiert kurz danach meist nach. Man hat also gute Chancen, nach einer entsprechenden Veränderung der Site schnell und automatisch wieder in den Index aufgenommen zu werden bzw. die alten Rankings wieder zu erlangen. 

Sibyll Brüggemann und Manuel Hausleithner von Jochen Schweizer berichteten von einem Test, der sich mit dem Thema „Linkbait vs. Likebait“ beschäftigte. Man animierte die Fans von Jochen Schweizer, Videos von sich zu machen und diese auf eine neue Domain hochzuladen. Zum Voting sollten die Beteiligten Likes für ihre Videos einsammeln. Die Auswertung zeigte, dass es nicht möglich war, nur Likes zu bekommen. Es wurden automatisch auch Links erzeugt – man kann bzw. darf hier also in der Regel immer mit einer Kombination rechnen. Dieses eigentlich logische Fazit verweist viele aktuelle Social-Media-Ranking-„Analysen“ dorthin, wo sie hingehören: in den Hobbybereich. Es genügt eben nicht, sich ein paar Links zu besorgen, die Auswirkungen auf die Rankings zu messen und dann enthusiastisch von der durchschlagenden Wirkung solcher Links zu berichten. Solche oft viel zu amateurhaft durchgeführten Versuche, die auf Konferenzen immer mehr ungefiltert als praktisch „objektive Ergebnisse“ präsentiert werden, sollte man daher durchaus mit dem nötigen Abstand kritisch betrachten. Singuläre Signale an eine Suchmaschine zu „senden“ und dann eventuelle Rankingveränderungen darauf zurückzuführen, ist nicht das, was man ergebnisorientiert den Teilnehmern in deren Mitschriften diktieren sollte. Auf der SEOkomm gab es in wenigen Vorträgen solche augenscheinlich viel zu dünnen „Beweise“ – die Zuhörer schrieben trotzdem fleißig mit. Brüggemann und Hausleithner sahen ihre Ergebnisse allerdings im richtigen Licht und versuchten eben nicht, Erkenntnisse aus einer Einzelbeobachtung zu vergeneralisieren. Für Jochen Schweizer hat sich die Aktion unter dem Strich durchaus gelohnt. Über 40.000 Sichtkontakte hatten die Einsender der Videos und deren Freunde generiert– von dem wertvollen Material, das gesammelt wurde und für weitere Marketingmaßnahmen verwendet werden kann, ganz zu schweigen. Zusätzlich hat Jochen Schweizer damit natürlich auch jede Menge neuer Fans gewonnen.

Den Abschluss der SEOkomm bildete ein Linkbuilding-Mega-Expertenpanel, das den Teilnehmern Rede und Antwort stand. Dort hieß es, dass Links nach wie vor die Nummer eins der Rankingkriterien wären und wohl auch noch auf lange Zeit bleiben würden. Auf die Frage, wie man denn die Links der Mitbewerber überwachen könne, wies Veranstalter Cemper auf die Link-Alerts in seiner Toolbox hin. Sobald auf eine auf Alert gemeldete Domain neue Links kämen, erhalte man automatisiert eine Berichts-E-Mail. Markus Tandler empfahl, sich den aktuellen Stand der Mitbewerberlinks über eines der bekannten SEO-Tools zu ziehen und dies später nochmals zu tun. Diese beiden Linkdaten-Dumps könne man dann vergleichen und die Veränderungen im Linkaufbau (plus/minus) ggf. Rankingänderungen zuordnen. Mit den neuen „Essentials“ von Search Metrics könne man bequem z. B. die Top-30-Suchergebnisse für ein Keyword überwachen lassen und neben Veränderungen eben auch gleich sehen, wo sich etwas getan hat – inclusive der wichtigen „Social Activities“. Wie könne man aus zehn Links denn den am besten wirkenden Link herausfinden?, so eine zentrale Frage aus dem Publikum. Bastian Grimm gab hierzu den Tipp, auf jeden Fall Einzelanalysen zu machen und besonders darauf zu achten, ob die linkgebende(n) Domain(s) auch wirklich gut ranken. Mit den gängigen SEO-Tools ist dies kein Problem. Cemper ergänzte, man solle ebenso darauf achten, wofür die (linkgebenden) Unterseiten ranken. Man solle möglichst keine Off-Topic (themenfremde) Links nehmen und auch auf die Historie der Seite achten, also was vorher dort thematisch zu finden war. Andreas Graap stellte die provokante Frage, ob man überhaupt Links auf „alten“ Seiten akquirieren solle, besser wäre es doch, Links von neuen Seiten zu bekommen, und zielte damit auf den vielfältig diskutierten Freshness-Faktor ab. 

Die auf solchen Veranstaltungen fast unvermeidbare wie unnötige Publikumsfrage „Wie viele Links sind denn viele?“ wurde von Tandler spontan mit „42!“ beantwortet, einer Anspielung auf „Hitchhiker´s Guide tot he Galaxy“ (siehe das Google-Ergebnis in Abbildung 5). Saša Ebach wies darauf hin, dass es in Deutschland ein Grund zum Feiern wäre, wenn man durch einen Link-Bait über 50 Links bekäme. In USA dagegen wären bei gut gemachten Aktionen allerdings durchaus auch über 1.000 Links drin. Der Frage, ob man Linknetzwerke kopieren, also nachbauen sollte, wurde von den Experten einmütig mit einem Nein beantwortet. Der Grund ist ebenso einsichtig wie trivial: Wenn man ein Linknetzwerk als solches über Muster finden würde, hätte es Google mit Sicherheit schon lange identifiziert. Die Abschlussfrage an Nina Baumann „Kann denn SEO Sünde sein?“ blieb allerdings unbeantwortet.

Einige der Experten standen dem Veranstalter auch für Videointerviews zur Verfügung, die in einem eigenen Youtube-Channel (www.youtube.com/user/SEOkomm) gebündelt wurden und dort für jedermann abrufbar sind. Wer noch tiefer recherchieren möchte, für den hat Oliver Hauser in seinem Blog unter einfach.st/skrecap eine beeindruckende Linksammlung aller im Web über die Konferenz publizierten Beiträge, Bilder und Videos zusammengetragen. 

Der Termin für die 3. SEOkomm steht bereits fest und es empfiehlt sich für alle ernsthaften Online-Marketers, den 23. November 2012 schon mal fest im Kalender zu blockieren. Bereits vier Tage nach der Veranstaltung waren drei Tourbusse nach Salzburg für den Termin 2012 schon fast ausgebucht und das spricht sicherlich Bände über die Zufriedenheit der Teilnehmer.