Die SEO-Trends 2011

Mario Fischer
Mario Fischer

Mario Fischer ist Herausgeber und Chefredakteur der Website Boosting und seit der ersten Stunde des Webs von Optimierungsmöglichkeiten fasziniert. Er berät namhafte Unternehmen aller Größen und Branchen und lehrt im neu gegründeten Studiengang E-Commerce an der Hochschule für angewandte Wissenschaften in Würzburg.

Mehr von diesem AutorArtikel als PDF laden

Ein Blick in die Zukunft ist immer mit einem Teil Spekulation verbunden. Website Boosting hat vertraulich mit einigen Experten gesprochen und versucht, für Sie die wichtigsten Veränderungen für dieses Jahr aus der Glaskugel zu fischen. Heraus kamen einige durchaus interessante Aspekte, die für einige Unternehmen wohl spürbar gestiegene Risiken bergen könnten, aber für alle durchaus auch eine Menge nutzbarer Chancen bieten.

Penalties – Strafen

Wenn man sich früher bei Google eine Strafe einfing, war die meist recht leicht zu erkennen: Die Domain war aus dem Index verschwunden. Bei der Abfrage site:www.domain.de kam kein einziger Treffer als Ergebnis und statt dessen eine lapidare Meldung: „Es wurden keine mit Ihrer Suchanfrage – site:www.domain.de – übereinstimmenden Dokumente gefunden“. Das erleichterte Spammern enorm die Arbeit, denn hier war zweifelsfrei erkennbar, dass ein Webprojekt „verbrannt“ war, und es wurde eben einfach eine neue Domain dafür aufgesetzt. Google ging dann dazu über, auf (Einzel-)Seitenebene Strafen zu verhängen. Die Domain war als solche mit anderen Seiten noch findbar, aber eben nicht mit den vom Spamfilter beanstandeten Seiten. Danach kamen Strafen noch diffiziler und ein Treffer wurde bei Vorliegen eines Grundes künstlich z. B. um 30 Positionen nach hinten verschoben. Diese „30 Penalty“ wurde oft verhängt, wenn Linkaufbau über Gästebücher-Spamming erfolgte, Redirects (Weiterleitungen) per JavaScript gemacht wurden oder der Robot (wahrscheinlich genauer die Toolbar von Nutzern, die ja durch die PageRank-Anzeige jede Seitenbewegung an Google meldet) Doorwaypages gefunden hatte. Neben dieser 30er-Strafe gibt es nach unterschiedlichen Meinung von Experten noch die +5-, +10-, +60- und +950-Strafen, die prinzipiell alle gleich arbeiten: Das eigentliche Suchergebnis wird nach hinten gestaucht, wo weniger Traffic zu ernten ist. Der Zweck ist ebenso klar: Den manipulierenden Sitebetreibern wird kein klares Signal mehr gesendet. Wusste man vorher noch eindeutig, dass eine Domain aus dem Index geflogen ist, steht jetzt nur eine Seite bei den Treffern z. B. auf Position 32. Man optimiert und optimiert, baut weitere Backlinks, um das Ranking zu verbessern … in Wirklichkeit kann keine bessere Position als 30 erreicht werden. So lenken Spammer ihre Energien zum Teil in Projekte, die gar nicht mehr optimierbar sind, statt immer und immer wieder neue Domains zum Spammen zu eröffnen.

„2011 wird für Spammer wahrscheinlich ein hartes Jahr.“

2011 sollen nun wohl noch feiner differenzierte Penalties kommen. Strafen werden sich immer mehr auf Einzelseiten konzentrieren und sogar nur noch für einzelne Keywords greifen. Dies bedeutet, dass eine Seite durchaus generell gut ranken kann, aber eben nicht (mehr) für ein bestimmtes Keyword. Das Erkennen einer vorliegenden Strafe wird damit ungleich schwieriger. Hier wäre nach dem Grund der Strafe zu suchen und dieser zu beseitigen, statt noch mehr Links für dieses Keyword aufzubauen. Dazu muss man aber, wie erwähnt, erst einmal erkennen, dass überhaupt eine Keyword-Strafe vorliegt. Aus gut informierten Google-Kreisen war zu erfahren, dass in Zukunft mehr Hinweise auf Problemlagen von Google direkt an den Webmaster gehen werden – über die Webmaster-Tools (unter: einfach.st/gwmt). Die eigene Domain dort zu überwachen, wird also tatsächlich nicht nur immer wichtiger, sondern essenziell. 

Wessen Seite mal kurzzeitig im Index verschwunden ist, der sollte sich allerdings nicht gleich graue Haare wachsen lassen oder sich selbige langsam einzeln ausreißen. Die Filter werden offenbar bei Google mittlerweile so komplex und ineinandergreifend, dass beim Rollout nicht immer weltweit die gewünschten Effekte erzielt werden. Beim letzten großen Update im Oktober (genauer am 22. Okt. 2010) wurden viele einzelne, wirklich saubere Seiten bestraft bzw. benachteiligt. Manchmal nimmt Google dann Änderungen teilweise oder sogar gänzlich wieder zurück. Ein klein wenig abwarten und Tee trinken schont also die Nerven. Allerdings ist das leichter geschrieben als ertragen – denn wenn ein Shop plötzlich 50 oder mehr Prozent seines Traffics und damit an Umsatz verliert, wird man verständlicherweise trotzdem schnell hibbelig. Wir müssen uns wohl darauf einstellen, dass die Filter mittlerweile sehr komplex geworden sind und sich gegenseitig beeinflussen. Wahrscheinlich werden in Zukunft eher mehr solche „Fehler“ passieren als weniger. Hier ist auch der Ruf nach mehr Wettbewerb verständlich. Nützen wird das freilich wenig, denn allein die Besucher entscheiden, welche Suchmaschine sie nutzen – und daher auch, welche die großen Traffic- und damit Kundenströme bringt.

Keyword-Domains

Schon seit Jahren ist es kein Geheimnis mehr, dass sog. Keyword-Domains (www.keyword.xx) gut ranken. Die meisten Top-Level-Domains in den Ergebnissen lauten auf .de, .org, .com und .net. Da .biz-Domains bis weit über die Hälfte mit Spam gefüllt sind, werden sie wohl offenbar von Suchmaschinen nur mit der Kneifzange angefasst und man findet solche Treffer sehr selten bei werthaltigen Suchbegriffen. Über den Grund des guten Rankings von Keyword-Domains wird meist spekuliert, insbesondere Google würde sie bevorzugen. Möglicherweise ist der Grund aber sehr viel banaler: Die mit Abstand meisten Backlinks, die nicht aus SEO-Gründen auf eine Domain gesetzt werden, haben den Domainnamen im Ankertext. Und hier greift ein einfacher Mechnismus: Der Text auf einem Link wird der empfangenden Seite als Keyword zugeschlagen. Dann macht es natürlich einen Unterschied, ob auf www.firma-mueller-sanitaer.de oder www.dampfbad.de als Ziel verlinkt wird. Im Ankertext der letzten Domain sitzt das Wort „Dampfbad“ und nur dieses. Daher haben fast alle externen Links dieses Keyword ganz automatisch als Text auf dem Link. Suchanfrage, Keyword und Domain stimmen perfekt überein – Platz 1 ist daher relativ leicht zu erreichen – bisher. Gerüchten zufolge soll sich dieser Effekt bei Google in diesem Jahr spürbar abschwächen. Der Grund erscheint bei längerem Nachdenken plausibel. Viele dieser Keyword-Domains enthalten nicht wirklich nützlichen Content und nicht selten haben SEOs und/oder Affiliates solche Sites mittlerweile fest besetzt. Durch das leicht zu erreichende Ranking und den damit hohen erzielbaren Wert für Werbeeinblendungen oder Vermittlungen plus den sog. Type-in-Traffic (Suchende geben ein Keyword direkt auf Verdacht als Domainnamen ein) ist mit guten Keyword-Domains viel Geld zu verdienen.

Das Ranking von Keyword-Domains könnte sich bald spürbar verschlechtern.

Wenn die Qualitätstester von Google sich solche Sites einmal näher angesehen haben (wovon man ausgehen sollte), weiß man dort sicher schon länger um die oft mangelhafte Ausstattung mit Content und der eigentliche Zweck einer solchen Site ist meist auch recht schnell zu erkennen. Insofern ist das fast schon monotone Nach-oben-Sschießen einer Keyword-Domain nicht immer nützlich für Suchende. Der Umstand, dass solche Domains praktisch „von selbst“ sehr gut ranken, wird mit Sicherheit bei Google ebenfalls bekannt sein. Dass man dies nicht schon früher abgestellt hat, mag daran liegen, dass es oft schwieriger ist, als man denkt, einen wirklich sauber treffenden Filter für solche Ausreißer zu bauen. Hier gilt es letztendlich ja immer, zu vermeiden, als Kollateralschaden zu viele nützliche Websites mit zu bestrafen bzw. als Nebenprodukt deren Ranking ebenfalls zu verschlechtern. Apropos Domains: Auch den geparkten Domains könnte es bald an den (Ranking-)Kragen gehen, wenn beim Eigentümerwechsel alle Signale auf Null zurückgesetzt werden. 

Gekaufte Links

Bereits bei unserem Exklusivinterview mit Matt Cutts, dem obersten Spam-Hüter bei Google, in unserer ersten Ausgabe letztes Jahr konnte man deutlich zwischen den Sätzen heraushören, wie betroffen er reagiert, wenn man anspricht, dass gekaufte Links noch immer sehr gut funktionieren und einen (zu) starken Einfluss auf das Ranking haben. Natürlich beschweren sich auch viele sog. White-Hat-SEOs (die nur mit erlaubten Methoden arbeiten), dass Mitbewerber mit einfachem Linkkauf an den betreuten Kundensites vorbeiziehen. Die Diskussion ist immer dieselbe: Man empfiehlt dem Kunden, nur mit sauberen Methoden zu arbeiten, weil sich das langfristig auszahlt. Die Kunden sehen aber zumindest mittelfristig nicht, dass Sites, die mit gekauften Links arbeiten, von Google abgestraft werden. Das erzeugt dann oft unangenehme Nachfragen: Wäre es nicht doch besser, wie viele anderen den Pfad der sauberen SEO-Arbeit zu verlassen? Man kann getrost davon ausgehen, dass bei Google all dies bekannt ist und man das Problem intensiv angeht. Gerüchten zufolge arbeitet Google an einem völlig neuen Tool, um gekaufte Links automatisiert besser erkennen zu können. Und offenbar ist man schon so weit, dass erste Tests laufen. Wenn das stimmt, müssen sich einige Shopbetreiber, deren Rankings hauptsächlich auf gekauften Links basieren, in diesem Jahr auf mehr oder weniger dramatische Umsatzeinbrüche vorbereiten. Dem Vernehmen nach ist es wohl immer noch so, dass viele SEO-Agenturen für ihre Kunden offen oder verdeckt (d. h. ohne Wissen des Kunden) zum überwiegenden Teil gekaufte Links setzen lassen. Das ist der einfachste und bequemste Weg und echtes Linkbuilding noch immer eine selten praktizierte Kunst.

Bereits im März 2010 wurde das Spam-Meldeformular von Google, das man über die Webmaster-Tools erreichen kann, entsprechend um gekaufte Links erweitert und Matt Cutts bat ausdrücklich darum, das Wort „Linkspam“ in die letzte Textbox einzutragen, damit eine Vorsortierung besser möglich wird. Kurz vor Druckschluss wurde von Google noch ein Add-on für den Chrome-Browser publiziert: „Google Webspam Report“.

Es erweitert die Suchergebnisse in der jeweils letzten Zeile um einen neuen Link: „Spam melden“.

Klickt man einen dieser Links an und ist in einem Google-Konto eingeloggt, erscheint ein bereits vorausgefülltes Formular (der Domainname „Bundesregierung.de“ wurde dabei ausschließlich zu Demonstrationszwecken gewählt). Man könnte nun argumentieren, dass sich nur die wenigsten Nutzer ein solches Add-on installieren, und läge damit sicher richtig. Es ist allerdings auch nicht ganz unwahrscheinlich, dass Google diese erleichterte Meldemöglichkeit erst einmal ausführlich testen möchte, bevor diese Funktion fix in die Grundausstattung des Chrome-Browsers übergeht. Und bei diesem Browser werden die Updates ja automatisiert im Hintergrund gefahren, ohne dass der Nutzer dies aktiv anstoßen muss.

Doch warum sollte Google auf menschliche Meldungen für bezahlte Links angewiesen sein, wenn doch bereits ein Tool zur automatisierten Erkennung zur Verfügung steht bzw. getestet wird? Um dies zu verstehen, muss man wissen, wie bei Google Filter entwickelt werden. Dabei geht man in der Regel nach dem folgenden Schema vor:

  • Das Spam-Bekämpfungsteam erhält Kenntnis von Problemen (auf unterschiedlichsten Wegen).
  • Man versucht abzuschätzen, wie groß dieses Problem wirklich ist, und priorisiert es entsprechend oder stellt es aus Kapazitätsgründen zurück.
  • Erste Filtermechanismen werden entwickelt.
  • Der neue Filter wird an definierten Sets von Domains/Webseiten auf Tauglichkeit und Präzision getestet. Dabei geht es inbesondere darum, ob und wie viele „gute“ Seiten in dem neuen Filter zu Unrecht hängen bleiben. Die Sets bzw. die Einschätzung für nützliche Seiten und Seiten, die eigentlich niemand im Web braucht, kommt in der Regel von den weltweit tätigen Qualitätstestern von Google. Dies sind meist Studierende, die auf 400-Euro-Basis unter anderem Listen abarbeiten und nach einem vorgegebenen Rahmen ihre Meinung elektronisch auswertbar hinterlegen. Allein in Deutschland soll es etwa 800 von ihnen geben.
  • Der Filter wird in iterativen Schritten weiter optimiert und getestet. Erst wenn eine akzeptable Erkennungsrate für schlechte Seiten und eine definierte, möglichst niedrige Fehlerrate für normale Webseiten erreicht werden, gibt es einen Rollout über alle Datencenter. Wer sich schon etwas intensiver mit Crawlerprogrammierung oder „Scannern“ für das Web beschäftigt hat, der kann ein Lied davon singen, wie schwer ist tatsächlich ist, solche Filter zu bauen, die wirklich mit den Millionen unterschiedlichen Arten von Webseiten und -programmierungen verlässlich zurechtkommen. Daher kann es durchaus mehrere Monate oder gar mehr als ein Jahr von der Problemerkennung an dauern, bis ein sauber treffender Filter einsatzfähig ist. Im Jahr 2010 soll es bei Google weit über 400 neue Filter gegeben haben, die im laufenden Betrieb eingesetzt wurden. Die meisten sind in ihrer Wirkung freilich nicht so spektakulär sichtbar wie große Updates, die oft ja sogar eigene Namen bekommen (z. B. Mayday-Update). Und ab und zu stellt sich nach einem großen Rollout heraus, dass tatsächlich zu viele unschuldige Seiten von einem Filter betroffen wurden und Google nimmt nach einiger Zeit das gesamte Update zurück oder lockert einige Parameter. Dies alles zeigt recht deutlich, dass es einfach nicht möglich ist, alle Wirkungen solcher Änderungen bereits im Vorfeld exakt zu berechnen oder zu testen.

Jetzt wird auch klar, warum die Spammeldungen der Nutzer für Google so wertvoll sind. Die gemeldeten URL kann man automatisiert an die Qualitätstester weiterleiten und zusätzlich deren Votum einholen. So kann vermieden werden, dass zu viele Falschmeldungen (z. B. mal eben die Mitbewerberdomain als Spam kennzeichnen) Eingang in den Pool von guten und schlechen Seiten finden, mit denen die Filter wie oben beschrieben getestet werden.

Ist 2011 die Wirkung gekaufter Massenlinks zu Ende?

Möglicherweise könnte 2011 das Jahr der langen Messer werden, mit denen Google die Leitungen gekaufter Links kappt. Im günstigsten Fall. Wer es beim Linkeinkauf zu bunt getrieben hat, dem könnte durchaus eine Index-Strafe oder gar der Ausschluss drohen, wenn der Manipulationsversuch elektronisch als allzu offensichtlich erkannt werden kann. Falls es so kommt, wird es auch hier wieder Gewinner und Verlierer geben. Wer den Linkkauf mit Bedacht und strategisch überlegt betreibt, wird aller Voraussicht nach unbeschadet bleiben. Treffen wird es wohl wahrscheinlich viele von denen, die auch beim Linkkauf den einfachsten und/oder günstigsten Weg über Broker bzw. größere Verkaufsplattformen gingen und (halb-)automatisiert in einem bunten Umfeld verschiedenster Backlinksuppen erscheinen. Eines scheint in jedem Fall sicher: Für eine übertriebene Hektik im Linkportfolio gibt es keinen Grund, denn Google kennt alle Links und hat sie in den unvorstellbar großen Cloudspeichern für Auswertungen aller Art abgelegt. Der Zug rollt also bereits oder ist im schlimmsten Fall schon abgefahren.

Mit dem großen Hardware-Update „Caffeine“ hat Google 2010 eine deutlich leistungsfähigere Rechenkapazität zur Verfügung gestellt. Dadurch kommen jetzt nicht nur neue Seiten fast in Echtzeit in den Index – auch Spam- und Linkanalysen lassen sich damit praktisch in Echtzeit durchführen. Daher wird es in Zukunft noch wichtiger, dass Backlinks von der Struktur her „natürlich“ aussehen, und man darf getrost davon ausgehen, dass Links von vertrauenswürdigen Domains einen noch stärkeren positiven Einfluss auf das Ranking haben, als das bisher schon der Fall war.

Nachdem immer bekannter wird, dass die Texte auf eingehenden Links einen vergleichsweise hohen Einfluss auf das Ranking haben, kann man auch hier davon ausgehen, dass Google bereits an einem Filter arbeitet, der unnatürlich wirkende Textlink-Muster eliminiert bzw. deren Wirkung abschwächt. Experten empfehlen daher, dass nicht mehr als zehn Prozent der eingehenden Links ein Keyword als Linktext tragen sollten. Vor allem bei besonders „werthaltigen“ Begriffen sollte man zukünftig mehr Vorsicht walten lassen. Welcher Begriff bzw. welches Suchwort wie werthaltig ist, weiß Google natürlich aus dem Adwordssystem. Dort wurden Abermillionen Keywords von Werbetreibenden hinterlegt und zu jedem dieser Begriffe gibt es einen Klickpreis. Welches Wort also drei Cent, zwei Euro oder gar 28 Euro für einen Besuch auf einer Website wert ist, weiß man also dort ganz genau …

Expired Domains

Bisher unter Insidern ein echter Powertipp. Man sucht sich eine Domain, die seit Jahren im Netz steht, aber nicht mehr richtig gepflegt wird – veraltete Inhalte und Textschnipsel wie „last update xx.xx.2005“ oder „best viewed with netscape“ sind neben anderen untrügliche Zeichen hierfür. Nun überredet man den Domaininhaber – notfalls mit Geld –, einem die Domain für ein Projekt zu überlassen, und baut optimierte Inhalte ein. Da alte Domains einen starken Vertrauensvorschuss bei Suchmaschinen haben, funktioniert diese Strategie immer recht zuverlässig. Ebenso kann man sich natürlich für eine Domain registrieren, die vor Kurzem vom Eigentümer zurückgegeben wurde. Hierauf hat sich allerdings schon eine kleine „Industrie“ spezialisiert, die mit schwerem programmiertechnischem Werkzeug jede Domain sofort nach dem Freiwerden maschinell prüft und ggf. automatisiert eine Registrierung dafür vornimmt. Hier lassen sich für Laien praktisch keine Schnäppchen mehr machen. Dies zeigt aber auch umgekehrt, a) wie wertvoll alte Domains sind, und b) dass diese „Strömung“ sicher auch von Google nicht unbemerkt geblieben sein dürfte. Auch hier wird daher in Expertenkreisen gemunkelt, dass sich der positive Effekt recht bald abschwächen könnte. Stellt Google den Wechsel des Eigentümers fest (durch „Whois“) oder vielleicht sogar durch eine völlig andere Adresse im Impressum, die ja nach einem Wechsel gesetztlich zwingend zu ändern ist, müsste man dort also nur den „Vertrauenszähler“ zurück auf Null stellen und die Domain ist genauso viel wert wie jede andere, die gänzlich neu ins Netz geht.  

Google Preview

Als neues Feature wurde direkt in den Google-Ergebnissen Ende letzten Jahres eine Vorschau auf Webseiten ermöglicht. Fährt man mit dem Mauszeiger über Ergebnisse, erscheint rechts ein Mini-Bild der gefundenen Seite. Dabei zeigt sich, dass nun Flash auch hier ein großes Problem erzeugt: Man sieht keine Vorschau, sondern nur ein einzelnes Puzzlestück. Problematisch kann das für die sog. Click-Throug-Rate (CTR) sein, denn dass aufgrund einer solchen Vorschau wahrscheinlich weniger Besucher auf das Ergebnis klicken werden, ist wohl leicht einsehbar. Geht die CTR in den Suchergebnissen gegenüber den anderen Treffern statistisch für dieses einzelne Ergebniss aber zurück, könnte auch ein Zurückfallen im Ranking die Folge sein, da nach Meinung vieler Experten die CTR mittlerweile ein nicht unwichtiger Rankingfaktor geworden ist.

Entwarnung kommt aber, denn „Google is working on rendering these rich content types accurately“. Man hat das Problem also schnell erkannt und arbeitet an einer Lösung, die geflashten Startseiten in einem statischen Bild anzeigen zu können. Tipp: Fügt man das sog. „nosnippet tag“ im Header einer Webseite ein, zeigt Google nach eigenen Angaben gar keine Vorschau an:

<meta name="googlebot" content="nosnippet"> 

Dies mag helfen, die Zeit zu überbrücken, bis auch eine optische Vorschauf auf Flash-Seiten möglich ist, und keine Vorschau ist sicher besser als das nach einem Fehler aussehende Puzzlestückchen. Weitere Informationen dazu findet man übrigens direkt bei Google unter einfach.st/preview.

Google Places

Wenn sein Unternehmen noch nicht in Google Places eingetragen hat, der sollte das gleich jetzt machen. Legen Sie Website Boosting aus der Hand und melden sie sich unter einfach.st/places an. Jetzt! In der sog. Universal Search (den gemischten Suchergebnissen) werden immer mehr solcher Places-Einträge an prominenten Stellen angezeigt. Sorgen Sie nach dem Eintrag und der positiven Verifizierung (eine ID kommt per SMS oder Brief) dafür, dass Sie von zufriedenen Kunden dort eine positive Bewertung bekommen. Das geht oft einfacher, als man denkt, und die schnellen Auswirkungen auf das Ranking sind oft erstaunlich. Es genügen in der Regel wenige Bewertungen für einen obersten Platz. Das liegt wahrscheinlich daran, dass die Unternehmen gerade in Deutschland (mal wieder) solche neuen Möglichkeiten komplett verschlafen und man sich daher noch sehr leicht hervortun kann – eben auch gegenüber sehr viel größeren und bekannteren Unternehmen. Und natürlich haben sich Spammer in den USA schon darauf spezialisiert, Unternehmensadressen via Places zu „entführen“ und eigene Links an die ansonsten korrekten Adressen anzuhängen. Das geht einfacher, als man glauben sollte. Eine Anleitung dafür wollen wir aus verständlichen Gründen hier nicht abdrucken. Neben einem schnellen und einfach zu erreichenden Ranking sollte also schon allein der Druck, die eigene Adresse selbst in Places zu registrieren, genug Grund sein. Wenn Sie es nicht tun, werden es irgendwann auch hier in Deutschland die Spammer für Sie übernehmen. Haben wir eigentlich schon darauf hingewiesen, dass Sie Ihren Eintrag jetzt sofort beantragen sollen? Das Beste: Es kostet nichts. Noch …    

Bing und Facebook

Bing und Yahoo! haben sich in einer strategischen Kooperation bei den Suchergebnissen zusammengeschlossen. Das ist bereits länger bekannt. Für das Online-Marketing und aus SEO-Sicht ist der mit Facebook eingefädelte Deal für Suchergebnisse allerdings einen längeren Blick wert. Bing erhält nun Zugriff auf die Facebook-Likes der Mitglieder und den kompletten Social Graph. Die geklickten „Likes“ von Freunden können nun also in die Suchergebnisse mit einfließen. Wenn das in größerem Stil bei den Nutzern wahrgenommen wird, könnte Bing durchaus zu mehr Marktanteilen gelangen. Ebenso könnte die interne Suche bei Facebook durch Bing-Ergebnisse angereichert werden. Bei einer halben Milliarde Nutzer könnten so schnell interessante Trafficströme entstehen, welche die niedrigen Prozentwerte von Bing und Yahoo! im deutschsprachigen Markt nahezu explodieren ließen. War vorher unter Suchmaschinenoptimierern oft zu hören, dass sich die Optimierung für Bing nicht lohne, sollte man mit entsprechendem Weitblick vielleicht jetzt darüber nachdenken, was zu tun ist, um dort ein gutes Ranking zu erzielen. Weil wir unserer Leser damit nicht allein lassen wollen, haben wir Klaus Patzwaldt von at-web.de gebeten, für Sie die wichtigsten Bausteine für ein Ranking bei Bing zusammenzutragen. Sie finden sie in einem gesonderten Artikel in dieser Ausgabe!

SEO ist tot?

Eine provokante Frage. Im Kern ist sie aber sicher sinnvoll. „Reines“ SEO, wie es bisher oft praktiziert wurde, stirbt zumindest für seriöse Unternehmensseiten immer mehr ab. Nicht nur aufgrund der oben angeführten zu erwartenden Änderungen in den Ranking-Algorithmen wird mehr und mehr eine gesamtheitliche Sichtweise für Suchmaschinenoptimierung notwendig. Mal eben „ein Stück SEO“ einzukaufen und sich dann über einen wahrscheinlich nur kurzfrisitgen Boost zu freuen, wird sicher vom Kosten-Nutzen-Verhältnis her immer weniger effektiv sein. Für Suchmaschinenoptimierung muss Content so gebaut werden, dass er nicht nur textlich gut für das Ranking vorbereitet ist, er muss auch immer mehr inhaltlich überzeugen. Ansonsten steigt die Rückkehrrate (Bounce-Rate) der Besucher zu den Suchergebnissen und die Suchmaschinen erhalten das recht eindeutige Signal, dass die Menschen dieses Suchergebnis eben nicht nützlich finden. Selbstverständlich gehören zu einer guten SEO-Strategie heute auch passende Vorstöße im Social-Media-Bereich. Man stellt Inhalte ins Netz, die für andere wirklich nützlich sind, und braucht dann keine künstlichen Köder für Links auszuwerfen (Linkbaits). Ein guter SEO muss heute ebenso mit Kennzahlen umgehen können. Ohne vernünftige Erfolgsmessungen bringen die besten Rankings nichts, weil die Sortierung der Spreu vom Weizen hinsichtlich der Besucher, die auch zu Kunden werden, nicht gelingt. Schlimmer noch: SEO braucht teilweise zumindest informationellen Durchgriff auf weitere Unternehmenskennzahlen und muss umgekehrt zum Datenlieferanten für das Controlling werden. Kurzum: SEO muss sich ein ganzes Stück weit mehr (betriebswirtschaftlich) professionalisieren. Reine Tekkie-Schrauberereien an der Website werden also mit Sicherheit keine allzu große Zukunft mehr haben. Für 2012 werden an die 2 Billiarden Seiten im Web erwartet. Anspruch und Aufwand, sich hier vorne anzustellen, wird daher wahrscheinlich schnell steigen.

Insofern ist SEO in gar keiner Weise tot oder gar unnötig. Es unterliegt aber einem stetigen inhaltlichen Wandel und wird sicher mehr und mehr in die Richtung einer seriösen, dauerhaften und begleitenden Beratung gehen. Ob dies in Schlabberjeans und Puschen gelingt, wenn zunehmend auch die Geschäftsleitung mit anwesend sein sollte oder gar muss, bleibt abzuwarten. Letztlich zählt zwar nicht nur der optische Eindruck, aber gänzlich unwichtig ist er sicher auch nicht. Unternehmen, die erkennen, dass Online ein zunehmend wichtigerer und unverzichtbarer Kanal wird, werden richtigerweise selbst Kernkompetenzen aufbauen wollen. Daher wird auch die echte Hilfe zur Selbsthilfe die oft bewusst unklar gemurmelten Geheimformeln auf Dauer ablösen. Die Unternehmen werden dies sicher begrüßen. Sollten SEOs jetzt auch Krawatten tragen? Naja, übertreiben sollte man es sicher nicht ;-)