SEO Campixx: Suchmaschinenoptimierung ganz intim

Mario Fischer
Mario Fischer

Mario Fischer ist Herausgeber und Chefredakteur der Website Boosting und seit der ersten Stunde des Webs von Optimierungsmöglichkeiten fasziniert. Er berät namhafte Unternehmen aller Größen und Branchen und lehrt im neu gegründeten Studiengang E-Commerce an der Hochschule für angewandte Wissenschaften in Würzburg.

Mehr von diesem AutorArtikel als PDF laden

Wie jedes Jahr trafen sich vom 9. bis zum 11. März in Berlin am Müggelsee knapp 550 Suchmaschinenoptimierer/-innen zum ganz intimen Erfahrungs- und Informationsaustausch. Die SEOCampixx ist wohl hinsichtlich des Ablaufs, des Inhalts und des „Spirits“ mit keiner anderen Konferenz zu vergleichen. Es wurden 149 Vorträge gehalten – was 29 Tage lang Informationen am laufenden Band bedeuten würde, könnte man alles nacheinander hören. Website Boosting hat versucht, aus der schier erdrückenden Masse an Beiträgen die wertvollsten Details für Sie herauszupicken.  

Eines an der SEOCampixx ist mit Sicherheit für viele Interessierte ärgerlich: dass die Karten wie auch im letzten Jahr praktisch nach der Öffnung des Registrierungsprozesses innerhalb kürzester Zeit vergeben waren. Wer nicht schnell genug reagieren konnte, ging leer aus. Dafür hängte der Veranstalter Marco Janck diesmal einen zusätzlichen Tag vorne dran: den SEO-Tool-Day, zu dem knapp 300 registrierte Teilnehmer erschienen. Die Campixx hatte diesmal ein ganz besonderes Motto: „The helping spirit“. Janck hatte sich zwei Stiftungen herausgesucht, die ihre Hilfe bedürftigen krebs-, chronisch und unheilbar kranken Kindern widmen. 

Einen Teil der Anmeldegebühren spendete Janck direkt dorthin und weiterhin wurde über einen Stand, über Anmeldungen zu besonderen Veranstaltungen, über Geld- und Sachspenden zu „Wer wird SEOnär?“, eine Tombola und ein einmaliges Eintrittsgeld für Radio4SEO gesammelt – am Ende kamen deutlich über 15.000,- € zusammen, die der Björn-Schulz-Stiftung und „Strahlemännchen“ zugutekommen konnten. Erneut zeigte sich, dass es der Branche nicht nur gut geht, sondern dass die meisten auch gerne etwas an diejenigen abgeben, die es nicht so gut haben. Hierfür gilt dem Engagement von Marco Janck und allen Teilnehmern der höchste Respekt und ganz besonderer Dank!

Der erste Tag gehörte thematisch ganz den SEO-Tools. In fünf parallelen Slots zeigten zum einen die Hersteller der Tools den richtigen Umgang mit ihren Produkten, zum anderen gaben erfahrene Anwender Tipps und Hinweise für die umfangreiche Welt der Werkzeuge. Marcus Tober stellte ausführlich das neue Tool „Searchmetrics Essentials“ vor, mit dem man schnelle Analysen für einzelne Domains vornehmen kann und das insbesondere die Verankerung einer Domain in den sozialen Netzwerken wie Twitter, Facebook, Google+, LinkedIn und anderen aufzeigt und damit eine gute Beurteilung über das Standing dieser Domain erlaubt. Da Social Media ganz generell immer mehr an Bedeutung gewinnt, stellt Tober mit seinem Team konsequent immer mehr Funktionen zur Verfügung, die ein vergleichsweise tiefes Eintauchen in die Zusammenhänge von „Webseiten“ und „Social“ bieten. Durch den enormen Datenbestand kann man hier sofort z. B. für jeden einzelnen Blogbeitrag den Response aus den wichtigsten sozialen Netzwerken sehen. Das regelmäßige Überprüfen ist nicht nur für SEO wichtig, sondern auch für die Learnings, welche Thematiken oder eigenen Aktivitäten die meisten Likes, Shares, Plusbuttons, Tweets etc. erzeugen. Mit anderen Worten lässt sich schnell erkennen, was „draußen“ auch wirklich ankommt, und damit kann die Content-Strategie noch besser auf den Geschmack des Zielpublikums angepasst werden.

Christoph Cemper, Anbieter der Link Research Tools, zeigte, wie man den größten Nutzen aus dem Umgang mit seinen Werkzeugen zieht. Auch die LRT bieten nun die Verwendung eines Bookmarklets an, das man sich einfach in die Menüleiste des Browsers zieht und womit man dann für eine betrachtete Seite auf Knopfdruck wichtige SEO-Kennzahlen aus QBL (Quick Back Links, ein Einzeltool aus der LRT) innerhalb kürzester Zeit auf den Schirm bekommt. Cemper wies darauf hin, dass es nach seiner Erfahrung keine allgemeingültige Regel für ein gutes Linkprofil gibt. Je nach Keyword, Sprache und Land wären die „Regeln“ andere und zudem verändern sich diese auch fortlaufend. Diese Meinung teilen viele Experten durchaus mit ihm. Auch hier wurde wieder deutlich: Knopfdruck-SEO gibt es nicht. Auch dem Aufbau eines Backlinkprofils muss eine sorgfältige Analyse vorangehen. Neu ist bei den LRT das sog. „Link Check Tool“. Damit kann man bis zu 2.500 Links hochladen und die tatsächliche Existenz überprüfen lassen. So lassen sich zum Beispiel akquirierte Links oder auch der in anderen Quellen, wie den Webmaster-Tools von Google, angegebene Linkbestand auf Aktualität überprüfen. 

„Es gibt keine allgemeingültige Regel für ein gutes Linkprofil!“ Christoph Cemper

Auch SEOlytics zeigte auf der Konferenz einige Neuerungen im SEO-Tool. Seit Februar gibt es dort den „Daily Visibility Rank“, mit dem man mit einem hinterlegten Keyword-Set täglich Bewegungen beobachten und monitoren kann. Gibt man dem Tool noch den Zugriff auf das eigene Tracking-Tool bzw. dessen API, dann werden die über einzelne Keywords eintreffenden Besucher in die Analyse mit einbezogen. Ein selbstlernender Algorithmus, so Sören Bendig, der Geschäftsführer von SEOlytics, ermöglicht dann eine durchaus spannende Hochrechnung für das auszuschöpfende Potenzial. Die Fragestellung dahinter lautet: „Was könnte ich verdienen, wenn ich auf der ersten Ergebnisseite einer Suchmaschine auf Position 1 stehen würde?“ Damit bekommt man wertvolle Fakten an die Hand, in welchen Bereichen oder bei welchen Keywords sich eine Optimierung lohnt, denn letztlich zählt ja in der Regel nicht der Traffic – obwohl diese Kennzahl immer meist zu Unrecht ganz oben auf der Steuerungsliste der Unternehmen steht –, sondern der hard- oder softkonvertierende Traffic. Mit anderen Worten: Wenn man hochrechnen kann, bei welchen Keywords eine Verbesserung der Suchergebnisposition eine Steigerung um wie viele Verkäufe (Hard-Conversion) oder Downloads, eine Anmeldung zum Newsletter oder eine hinterlegte Adresse des Besuchers (Soft-Conversion) bringt, ist man einer optimalen SEO-Budgetverteilung ein ganzes Stück näher. Bending wies in seinem Vortrag auch noch mal darauf hin, dass nach der Anlage einer Domain alle Backlinks dauerhaft gespeichert werden, was in Verbindung mit dem SERP-Archiv wertvolle Analysen nicht zuletzt im Hinblick auf Positionsschwankungen erlaubt.   

Black Hat – die dunkle Seite des SEO

Am zweiten und dritten Konferenztag gab es dann jeweils zwölf Sessions parallel, was die „richtige“ Auswahl für viele der nun auf fast 550 angewachsenen Teilnehmer zu einer echten Herausforderung machte. Neu war diesmal eine komplett durchgehende Black-Hat-Session, die in einem eigens dafür präparierten Raum (abgeklebte Scheiben, Dunkelheit und selbstleuchtende Kreise auf dem Fußboden) stattfand. Dieser Raum war dann auch erwartungsgemäß jeweils bis zum Bersten gefüllt und wer nicht rechtzeitig da war, hatte absolut keine Chance mehr, etwas zu sehen oder zu hören. Aus Sicht der Suchmaschinen Unerlaubtes oder Tipps, die hart an der Grenze der Legalität sind bzw. teilweise diese Grenze deutlich überschritten, üben wohl eine magische Anziehungskraft aus. In den meisten Fällen wurde von den Referenten darauf hingewiesen, dass dies oder jenes rechtlich extrem kritisch ist. Ob dies von den Teilnehmern jedoch immer auch so aufgenommen wurde, bleibt dahingestellt. Es wurde gezeigt, wie man mithilfe von Cookies so cloaken kann (beim Cloaking wird i. d. R. den Suchmaschinen etwas anderes gezeigt als den menschlichen Besuchern), dass Suchmaschinen dies nicht erkennen können, oder wie man mit abgelaufenen (expired) Domains Geld verdienen kann. Sie benötigen 100 Google-Accounts, die bereits verifiziert sind? Kein Problem, solange man bereit ist, dafür ganze 12 US$ auszugeben. Für mit Telefonnummern verifizierte Accounts werden pro Account 7 US$ fällig. Sie brauchen Backlinks? Auch dies stellt kein Problem dar. In einschlägigen Foren werden pro 10.000 Backlinks –„überprüft“ versteht sich – ganze 5 US$ fällig. Diese sind freilich von der Qualität her deutlich noch unter der alleruntersten Schublade, aber ein Referent zeigte, wie er damit und einigen Zwei-Sterne Texten von Textbrokern für eine Testdomain innerhalb von Tagen Rankings unter den ersten zehn Treffern aufbauen konnte. Der Einfachheit halber wurde gleich bei unterschiedlichen Backlinkanbietern geordert und am Ende blieben etwa 10.700 tatsächlich nachprüfbare Backlinks bestehen. Einige sogar mit PageRank 5, einige von wertvollen .edu-Domains, was zeigt, wie sträflich manche Blogsysteme die eingehenden Kommentare vernachlässigen. Die Links kamen aus mindesten 1.000 unterschiedlichen Class-C-Netzen und somit war sogar die nötige Varianz gegeben. Alles in allem lag das komplette Investment für diesen Test bei unter 100 US$. 

Eine Überprüfung unserer Redaktion Ende März zeigte, dass die Domain noch immer wohlauf in den Suchergebnissen gelistet ist und nach wie vor rankt. Die Experten in den Black-Hat-Sessions zeigten durch die Bank eindrucksvoll, was man mit tief gehenden Kenntnissen der Funktionsweise des Webs auch und gerade heute noch anstellen kann. Mehr als einmal wurde deutlich, dass das Versteckspiel mit den Suchmaschinen noch lange nicht zu Ende ist und das Hase-Igel-Spielchen sicherlich noch eine ganze Weile so weitergehen wird. Offen bleibt natürlich nach wie vor die Frage, was man mit diesem Wissen auf normalem Weg erreichen könnte – ganz ohne Rückgriff auf unerlaubte oder gar illegale Methoden. Man hat jedoch an vielen Stellen den Eindruck, dass es hier oft eher um das „Es-machen-Können“, das Ausprobieren, Rumspielen und das Finden von Wegen, die andere noch nicht kennen, geht. Ein Black Hat sagte der Redaktion am Rande der Konferenz, es gehe ihm überhaupt nicht um das Geld, das man damit verdienen könne. Das sei ein angenehmer Nebeneffekt. Er wolle verzwickte Probleme lösen, die „Mechanik“ des Zusammenspiels von (Web-)Programmen, Protokollen, APIs und dergleichen mehr verstehen und sie für seine Zwecke umbiegen und somit nutzen. Etwas zu überlisten, das andere vermeintlich sicher auf- und zusammengebaut haben – das ist wohl der wahre Antrieb der meisten und gleichzeitig ein Teil des Mythos, dem die vielen Zuhörer so begeistert lauschten. Lachende Davids gegen große, professionelle Goliaths – wer auch immer temporär die Rolle des Goliaths übernimmt. 

„Brands are how you sort out the cesspool!” Eric Schmidt, Google

„Brand“-Links werden wichtiger, „Keyword“-Links gefährlicher!

Ein Highlight der SEOCampixx war erwartungsgemäß das Referat von Marcus Tandler, der seinen geplanten Vortrag kurzfristig umwarf und mit einigen Folien praktisch „Stand-up“-SEO-Tipps gab. Er stellte mehrere große Themen heraus, die aus seiner Sicht wichtig sind. Er betonte, dass „Social“ DAS Thema überhaupt ist. Die zweite wichtige Strömung wären „Brands“, so Tandler. Es wird immer wichtiger, von Google als eigenständige „Marke“ (gemeint ist damit auch die Domain) gesehen zu werden. Tandler zitierte Eric Schmidt mit den Worten: „Brands are how you sort out the cesspool“ (Cesspool = Jauchegrube). 

„Google will nicht die Seiten am besten ranken, die das beste SEO machen, sondern diejenigen, die das beste Ergebnis für den User sind!“ Markus Tandler

Als Nächstes ging Tandler darauf ein, wie man heute modernen Linkaufbau machen sollte. Auch hierbei wären sog. „Brand“-Links mittlerweile wichtiger als die früher favorisierten Links mit dem Keyword im Ankertext. Er monierte allerdings auch, dass viele Unternehmen und auch SEOs ihre Hausaufgaben nicht richtig gemacht haben, denn noch immer laufen viele interne Links ins Leere, auf Fehlerseiten oder sind schlicht mit falschen Prioritäten gesetzt. Neben der zunehmenden Wichtigkeit, wer Autor eines Contents im Web ist, wies Tandler dann auch noch auf das Thema Traffic hin. Google kenne den Traffic und könne dies auch als Qualitätskriterium für Websites oder einzelne Webseiten heranziehen. Für Google ist es relativ leicht, Links zu identifizieren, die gar nicht geklickt werden. Der logische Schluss ist dann, dass diese Links in ihrer Bedeutung stark abnehmen oder gar nicht mehr gewertet werden. 

Reverse-Link-Engineering

Stefan Fischerländer und Thomas Mindnich gaben Einblicke in die Möglichkeiten des Reverse Link-Engineering, also wie man für eine gegebene Domain herausfindet, von woher sie verlinkt ist und welche Strukturen diese Links haben. Dabei stellten die beiden Referenten nicht die Arbeit mit den üblichen SEO-Tools in den Vordergrund, sondern zeigten auf, welche Erkenntnisse aus selbst gecrawlten Daten gezogen werden können.

Grundsätzlich geht es bei der Analyse der Links darum, die folgenden Parameter zu untersuchen:

  • Von wo kommt ein Link genau her?
  • Welche Attribute hat der Link? (z.B. Zeitpunkt der Linksetzung)
  • Link-Ankertext, Content, ist er „sidewide“ (also auf jeder Seite einer Domain), wie ist das Linkumfeld, seit wann besteht der Link (Alter), ist er nofollow/dofollow, gibt es Redirects ect.
  • Wohin zeigt ein Link?
  • SEO Metriken: PageRank, Webseitenalter, Contentumfeld, Linkumfeld, Linkbeziehungen etc.
  • Linkgrund (wenn erkennbar, also warum wurde ein Link gesetzt?)

Google nutzt solche Daten um zu erkennen, ob ein Link als Empfehlung für die verlinkte Seite zu werten ist oder ob genügend Anlass besteht, den Link als „gekauft“ einzustufen. Fischerländer und Mindnich legten deshalb das Hauptaugenmerk ihrer Analysen auf die Erkennung von sog. Footprints, die Google solche gekauften Links verraten könnten.

Die Referenten stellten dazu verschiedene Programme wie Screaming Frog, 80legs und die bekannten SEO-Tools sowie deren Vor- und Nachteile vor. Zusätzlich führten beide ihre Analyse mit einem eigenen Crawler durch und zogen damit knapp 14 Mio. einzelne URL von über einer halben Mio. Domains. Damit lag Analysematerial von 109 Mio. Links in der Datenbank. Zur Erkennung von Footprints wurde der bekannte HITS-Algorithmus verwendet, der jedem Link zwei Werte zuordnet: Einen „Hub“wert (verteilt auf Autoritäten) und einen Autoritätswert (wird von Hubs verlinkt und damit zur „Authority“). Dieser Algorithmus ist recht anfällig für so genannte Link-Cliquen. Das ist für den Einsatz in Suchmaschinen zwar eher nachteilig, hilft aber bei der Analyse enorm. Denn hier ist das Ziel ja gerade, solche unnatürlichen Link-Cliquen zu entdecken. Nimmt man die identifizierten Hubs („Verteilerseiten“) zu einzelnen Keywords genauer unter die Lupe, findet man recht schnell solche Linknetze.

Außerdem zeigten Fischerländer und Mindnich eine Datenbank, in der nahezu in Echtzeit neu gesetzte Links gespeichert werden. Dies ist möglich über den Zugriff auf die sogenannten Blogpings, die Blogsysteme wie Wordpress im Hintergrund automatisch an den zentralen Dienst Pingomatic senden. Die so erhaltenen neuen Webadressen lassen sich nach Zielseite und Linktext auswerten und geben weitgehende Einblicke in die Linkbuilding-Strategien beliebiger Websites.

Hintergrundmaterial zum HITS-Algorithmus finden Sie bei Interesse unter einfach.st/hits und zur Weiterentwicklung von HITS zum ACR-Algorithmus (mehr Themenbezug der Links + Gewichtung): einfach.st/arc.

Google-Produktsuche

Jens Tonnier gab in seiner Präsentation mit dem Titel „Tina, was kosten die Kondome?“ Hilfestellung für Einsteiger und Fortgeschrittene zur Google-Produktsuche. Nach seiner Erfahrung macht der Einstieg in die Produktsuche im Hinblick auf den zu betreibenden Aufwand und erwartbaren Nutzen in den folgenden Fällen wenig Sinn:

  • Wenn man weniger als 3.000 Artikel hat,
  • das Artikelspektrum sehr heterogen ist und
  • wenn keine-Online Bezahlmöglichkeiten z. B. via Kreditkarte, Paypal etc. zur Verfügung stehen.

Die Google-Produktkategorien (Google Taxonomy) sind zwar nur für bestimmte Produktgruppen wie z. B. bei Mode Pflicht, man sollte sie aber in jedem Fall für möglichst viele und im besten Fall für alle Produkte hinterlegen. Die englische Google-Produkttaxonomie ist dabei bisher deutlich detaillierter als die deutsche. Tonnier empfahl daher, für das Feed-Attribut „Google-Produktkategorie“ die englische Produkttaxonomie von Google zu verwenden und für das Feld „Produkttyp“ die deutsche. Gute Produktabbildungen in hoher Qualität und Auflösung hat Google offenbar besonders gern und man sollte durchaus auch mehrere Bilder hochladen, wenn diese vorhanden sind. 

Anhand von Shop-Bewertungen versucht Google wohl derzeit, echte Shops von Spam-/Affiliate-Fakes zu unterscheiden – daher wäre es wichtig, so Tonnier, wenn man diese mit einbindet bzw. sich darum kümmert, welche zu bekommen, falls dies bisher noch nicht angegangen wurde. In der Vergangenheit hatte Google sehr stark mit solchen gefakten Shops innerhalb der Produktsuche zu kämpfen und es war ein offenes Geheimnis, wie man mit einfachen Mitteln die kompletten XML-Produktfeeds der Händler abzieht und die Daten in Webseiten einbindet und mit den entsprechenden Affiliats-Codes versieht.  

„Google ist scharf auf alles, was man ihnen gibt!“ Jens Tonnier

Ganz generell gelte: Je mehr Daten man mit dem Feed übermittelt, desto besser ist in der Regel das Produkt-Ranking. In Kombination mit Google AdWords bietet Google seit Kurzem über die Produkterweiterungen neue Attribute an, die es ermöglichen, die über die AdWords „Plusbox“ angezeigten Produkte besser zu steuern. Die Klickraten können hier bei einer überlegten Verwendung deutlich ansteigen. Google stellt unter einfach.st/gprodhelp hierzu umfassende Informationen zur Verfügung.

Nützliches aus den Google-Webmaster-Tools

Die meisten ambitionierten Online-Marketers kennen die Webmaster-Tools von Google (GWT) sicherlich. Trotzdem wird das Potenzial dieser Datenquelle oft nur unzureichend ausgenutzt. Eric Kubitz und Christoph Baur hatten ihren Vortrag diesem Thema gewidmet und erläuterten mit vielen Tipps, wie man noch professioneller damit arbeiten kann. Noch nicht so bekannt ist sicherlich, dass man mit dem GWT neben Subdomains auch Unterverzeichnisse einrichten kann. So gelangt man an mehr Backlinkdaten für Analysen. Dass die Funktion „Abruf wie durch Googlebot“ einzelne Seiten praktisch sofort in den Index bekommen kann, bestätigten Kubitz und Baur. Einer ihrer vielen Hinweise war, alle 404-Fehler (Seitenaufrufversuche für Seiten, die nicht bzw. nicht mehr existieren) mit den externen Backlinks zu exportieren und mit den gängigen Tools zu überprüfen, ob die Links, die Besucher auf die nicht vorhandenen Seiten führten, noch existent sind. Ist dies der Fall, kann man entweder den Linkgeber informieren, damit er den „toten“ Link zu einer anderen Seite der eigenen Domain umleitet. Oder man leitet die betroffene, fehlerhafte URL per 301-Weiterleitung auf eine andere, passende Seite um. Da dies eine deutlich einfachere Möglichkeit ist, als neues Backlinkpotenzial zu suchen, empfahlen die beiden, diese Prüfung regelmäßig durchzuführen. 

Ebenso wichtig ist es, sich die interne Linkstruktur der eigenen Domain vor Augen zu führen. Wer kein Profitool dafür zur Hand hat, kann auch hier die Aufstellung in den kostenlosen GWT nutzen. Dort listet Google im Menüpunkt „interne Links“ auf, welche Seite wie viele interne Links hat (siehe Abbildung 7). 

Haben in dieser Aufstellung Seiten viele interne Links, sind aber gleichzeitig vom Content eher unwichtig für ein gutes Listing in Suchmaschinen, sollte man Gegenmaßnahmen ergreifen und die Linkstruktur ggf. modifizieren.

Eine oft gestellte Frage, nämlich die nach dem Unterschied der verschiedenen Darstellungen zum Thema Geschwindigkeit, konnten Kubitz und Baur auch gleich beantworten. Das Chart „Dauer des Herunterladens einer Seite“ zeigt die Zeitspanne an, die zum Laden der Seite benötigt wird, die „Website-Leistung“ unter dem Menüpunkt „Google Labs“ hingegen die Dauer, die das Rendering der Seite benötigt, d. h. die Zeit, bis sie im Browser tatsächlich aufgebaut ist (siehe Abbildung 8).

Die beiden Referenten empfahlen noch, die folgenden Metriken einmal im Monat als Download zu speichern:

  • Tabelle der Backlinks
  • Tabelle der internen Links
  • die Crawling Errors
  • die HTML-Vorschläge
  • einen Screenshot der Crawling-Statistiken 
  • einen Screenshot der Website-Leistung

Dieses Vorgehen hat zwei entscheidende Vorteile: Zum einen wird man z. B. per Taskplaner angehalten, mindestens einmal monatlich in die GWT zu sehen. Zum anderen baut man sich damit eine wertvolle Historie auf, auf die man zurückgreifen kann, wenn es einmal ärgere Probleme wie z. B. ein plötzliches Abfallen im Ranking geben sollte und man nach den Gründen sucht. Diesen Tipp kann man jedem Webverantwortlichen wirklich ans Herz legen und er lässt sich mit dem alten Sprichwort „Spare in der Zeit, so hast du in der Not“ bestens begründen. Solange alles gut läuft, macht man sich in der Regel wenig Gedanken über die Sicherung solcher externen Datenquellen. Benötigt man dann unerwartet historische Daten, liegen diese dann eben nicht vor und die Analyse nach einen „Warum“ wird ungleich schwerer oder ist überhaupt nicht mehr vernünftig möglich. 

Ask the Experts

Im Diskussionspanel „Radio4SEO“ wurden aktuelle Fragestellungen zum Thema SEO aufgegriffen. Alle Moderatoren des Podcasts standen bei dieser Session, für die ein gesonderter Eintritt für einen guten Zweck zu entrichten war, Rede und Antwort. Marco Janck, gleichzeitig auch Veranstalter der SEOCampixx, vermutete laut, dass viele SEO gar nicht richtig nachrechnen, ob und inwiefern sich vergangene Projekte v. a. hinsichtlich des Aufwands für Linkaufbau tatsächlich gerechnet haben. Die Verwendung solcher Alt-Daten kann wertvolle Hinweise für die Budgetierung neuer Projekte geben, so Janck. Aus dem Panel kamen dann auch tatsächlich außer Schweigen keine Antworten zu diesem Themenkomplex. Janck vermutete, dass hier wohl nur Jens Fauldrath (Deutsche Telekom) eine Ausnahme darstellt, weil dort extrem viel mit solchen Daten gearbeitet würde. 

Letzterer gab bei dem nächsten Themenpunkt (Was bringt SEA?) den Hinweis, dass die Klickraten auf Ads in Suchergebnissen zum Teil zwischen 2 % und 80 % schwanken. Dies hänge nicht nur davon ab, ob es um eine navigational, informational oder transactional search gehe (navigational: eher Domain- und Markensuche; informational: eher Infosuche; transactional: transaktionsorientiert, in der Regel mit Kaufinteresse), sondern vor allem davon, in welchem Step des gesamten Entscheidungsprozesses jemand stecke. Insofern lässt sich auch die Frage weder leicht noch pauschal beantworten, ob sich Pay-per-Click-Werbung (z. B. AdWords) rentiert, wenn man schon in den organischen Suchergebnissen ganz oben gelistet ist. Ärgerlich ist allerdings, so Fauldrath, wenn man hier Dinge falsch macht, wie z. B. die eigenen Marken mit der Option „Weitgehend passend“ (broad match) mit der Startseite als Landingpage einbucht. Als SEO fallen „einem da manchmal die Haare aus!“, schimpfte Fauldrath. Im organischen Bereich steht dann z. B. bei Begriffen wie „>Marke< Lederjacke“ ein gut optimiertes Ergebnis mit genau der passenden Landingpage. Aber via AdWords wird dann durch die Verwendung des Markenbegriffs ein allgemeines Ad oben über den Suchergebnisse ausgespielt. Die Suchenden klicken nun darauf und gelangen auf die Startseite des Shops, statt in genau die passende Kategorie, wohin sie ein Klick in die unbezahlten Ergebnisse geführt hätte. Und für die unpassenden Klicks gibt das Unternehmen dann auch noch Geld aus. 

Auch über das Thema Black Hat wurde ausführlich gesprochen und die Teilnehmer des Panels sahen es durchaus differenziert. Es funktioniere zwar, dem läge aber kein langfristig tragfähiges Geschäftsmodell zugrunde. Als einer der Panelteilnehmer die Aussage machte, dass die angewendeten Techniken gerade im Affiliate-Bereich durchaus nichts anderes wären, als eine Tankstelle zu überfallen, gab es unangebrachterweise Gelächter im Publikum. Dies zeigt, dass einige noch immer nicht einzuordnen wissen, was die Juristen mit „ungerechtfertigter Bereicherung“ meinen oder wie der Tatbestand des Betruges tatsächlich definiert wird. Dass Betrügereien gerade in diesem Bereich (Afffiliate) so gut funktionieren, liegt wohl daran, so die Vermutung eines Experten, dass viele Großkonzerne gar nicht wissen, was technisch im Web um sie herum passiert und sie das noch nicht mal auf dem Schirm haben. Möglicherweise wird dies ja noch ein Feld für findige Juristen: Schadensersatzklagen gegen Spammer und unehrliche Affiliates. „Findig“ deshalb, weil sie die Rechtsbrüche wohl selbst suchen und mithilfe von Experten beweisen müssten – viele Shopbetreiber wissen weder, dass sie betrogen werden, noch wie sie dies erkennen können. Die komplette Session (1 Std. 7 Min.) wird übrigens kostenlos als Podcast in guter Qualität bei Radio4SEO (http://einfach.st/r4seo1) zum Nachhören angeboten. Der Download lohnt sich, denn die Teilnehmer haben kein Blatt vor den Mund genommen und Dinge ungeschönt beim Namen genannt.

Tipp für das nächste Jahr: Tickets sichern!

Wie schon zu Anfang geschildert, ist es unmöglich, hier auch nur einen Bruchteil der fast 150 Sessions mit den vielen interessanten Tipps und Hinweisen zu erwähnen. Ob die Karten für die Campixx 2013 auch wieder nach wenigen Stunden ausverkauft sein werden? Davon kann man mit Sicherheit ausgehen. Interessierten bleibt also nur, sich das Zeitfenster für die Registrierung, das vom Veranstalter noch bekannt gegeben wird, auch wirklich frei zu halten. Wer zur Öffnung der Buchungsmaske nicht online vor dem Rechner sitzt, hat mit hoher Wahrscheinlichkeit praktisch keine Chance.