SEO Campixx: Ändert sich der Spirit?

Mario Fischer
Mario Fischer

Mario Fischer ist Herausgeber und Chefredakteur der Website Boosting und seit der ersten Stunde des Webs von Optimierungsmöglichkeiten fasziniert. Er berät namhafte Unternehmen aller Größen und Branchen und lehrt im neu gegründeten Studiengang E-Commerce an der Hochschule für angewandte Wissenschaften in Würzburg.

Mehr von diesem AutorArtikel als PDF laden

Vom 15. bis 16. März 2014 fand wieder die alljährliche SEO Campixx in Berlin am Müggelsee statt. Am Tag davor konnten sich SEOs, die noch mehr über den Tellerrand hinausschauen wollten, auf dem Next Level Day inspirieren lassen. Im Vorfeld wurde laut und leise darüber spekuliert, wohin sich die SEO Campixx wohl bewegt, weil merklich viele der bekannteren Experten diesmal zumindest mit Vorträgen nicht dabei waren. Die Veranstaltung selbst zeigte dann tatsächlich, dass Bewegung in die drei traditionellen Tage des Klassentreffens der Branche gekommen ist. Von den 570 Teilnehmern erschienen nur 18 nicht, was die gefühlte Wichtigkeit dieser Veranstaltung wohl gut verdeutlicht. Angeboten wurden knapp 150 Sessions über zwei bzw. drei Tage hinweg. Da fiel so manchem die Auswahl extrem schwer. Website Boosting war vor Ort und hat für Sie wichtige Learnings aus Berlin als kleinen Auszug mitgebracht.

Noch während der Campixx gab es spürbare Aufregung wegen eines Beitrags über die Konferenz auf heise.de, der ein kleines Bild von der Eröffnung mit sitzenden Teilnehmern mit der Schlagzeile „Die Luft wird dünner“ verband. Der Konkurrenzkampf wäre hoch und die Branche hätte Wachstumsschmerzen. Der flüchtige Besucher bzw. Journalist konnte diesen Eindruck durchaus bekommen. Aber so einfach darf man sich es bei der Interpretation sicher nicht machen. Dazu später mehr.

Der Grund für das ärmlich wirkende Auf-dem Boden-Sitzen der Teilnehmer auf dem Foto im Heise-Beitrag war in Wirklichkeit NOX geschuldet. Dieser gut 2,5 Meter große Roboter kam nämlich plötzlich unter Nebelschwaden aus dem Off und mischte sich Respekt einflößend mit einer kleinen Show unter die Teilnehmer. Die Illusion war so stark, dass viele spürbar zurückwichen. In einem bestuhlten Raum wäre dies nicht möglich gewesen, d. h., die Branche kann sich durchaus noch Stühle leisten.

Big Data: Ich weiß, wen Du wählst, und schreib Dir jetzt einen Brief

Julius van de Laar berichtete über die Nutzung von Big Data im politischen Wahlkampf. Über die wirklich sehr interessanten und nachlesenswerten Inhalte hatten wir bereits in der Ausgabe 19 berichtet. Bis auf den veränderten Titel war sein Vortrag fast identisch mit dem auf der SMX im letzten Jahr. Man hatte sich im Wahlkampf Obama vs. Romney ja u. a. darauf konzentriert, die Menschen zu identifizieren (im wahrsten aller Wortsinne, denn Datenschutz existiert in den USA ja praktisch nicht), die potenziell mit hoher Wahrscheinlichkeit demokratisch wählen, aber mit ebensolcher Wahrscheinlichkeit nicht zur Wahl gehen würden. Es gelang, diese Gruppe  erfolgreich zu motivieren. Nicht von van de Laar erwähnt, aber doch erkennbar, konnte man durchaus den Bezug zu Websites herstellen. In einem Shop gibt es natürlich auch so etwas wie Wähler (Käufer), Wähler der anderen Partei (Besucher, die keine Kaufabsicht haben) und Unentschlossene (Abbrecher). Auch im Web lohnt es sich, viel Zeit auf die Analyse und Therapie zu verwenden, um diese wertvolle Gruppe zu Wählern – Entschuldigung – zu machen. Bei uns völlig undenkbar und echtes Big Data: Die Truppe von Obama legte für jeden Wahlberechtigen in den USA (Namen, Adressen, Parteizugehörigkeit etc. gibt es dort legal von den offiziellen Behörden für jedermann) bis zu 50.000 Datenpunkte an. Neigungen, Freunde, Hobbys, persönliche Einstellungen – einfach alles wurde aus Online- und Offlinequellen zusammengefischt, im Personenprofil gespeichert und genutzt. Jede Aktion wurde vorher ausführlich getestet, nichts dem Zufall überlassen. Man ging dabei sogar so weit, Briefe zu schreiben, in denen die Namen der jeweiligen Nachbarn aufgeführt wurden und ob diese bei den letzten Wahlen auch tatsächlich bei der Wahl waren oder ihre Stimme nicht abgegeben hatten. Der Brief erhielt den Hinweis, dass Wählen wichtigste Bürgerpflicht wäre und diese Briefe auch alle Nachbarn bekommen hätten. Somit könnten diese beim nächsten Mal sehen, wenn man selbst nicht zur Wahl ginge.

Unter dieser Perspektive und an dieser Stelle mag man vielleicht verstehen, warum die Amerikaner sich immer verwundert am Kopf kratzen, wenn man in Europa über Datenschutz und die damit verbundenen Probleme diskutiert. Die Amerikaner sind es einfach gewohnt, dass selbst intimste Daten nicht nur von Unternehmen, sondern eben auch von Behörden zu haben sind.

Einfach mal den Autoresponder einschalten?

Katja Saalfrank, vielen auch bekannt aus der RTL Serie „Supernanny“, gab einen kleinen Einblick in ihre Erfahrungen mit dieser Serie und sprach anschließend über tatsächlich gestellte Interviewfragen zum Thema Authentizität. Marketing solle und müsse authentisch sein, wenn man potenziellen Interessenten seine Botschaften in der Reizüberflutung glaubwürdig und mit Aufmerksamkeit zu Gehör bringen wolle. Saalfrank erklärte zum Thema der hohen Arbeitsbelastung, dass sie zu bestimmten Tageszeiten oder am Wochenende einen entsprechenden Autorespondertext aktiviere. Deswegen könne man Mails trotzdem lesen und auf wirklich wichtige Dinge reagieren, setze sich aber selbst nicht so stark unter Antwortdruck, weil der Sender ja bereits eine entsprechende Notiz bekommen habe, dass er bis zum nächsten Tag oder nach dem Wochenende warten müsse. Wer darüber ein wenig nachdenkt, wird diesem am Rande gegebenen Tipp vielleicht durchaus etwas abgewinnen können.

Denn dies konnte der aufmerksame Beobachter erneut und jährlich immer stärker erkennen: Die Bereitschaft oder Fähigkeit vor allem jüngerer Teilnehmer, sich länger als eine Viertelstunde auf etwas zu konzentrieren, ohne auf dem Smartphone zu checken, ob es etwas Neues gibt, hat weiter abgenommen. Selbst als Saalfrank jemanden, der in der ersten Reihe mit ausgeklapptem Laptop Mails bearbeitete, direkt darauf ansprach –weil eben gerade dies thematisiert wurde–, arbeitete dieser nach einer kurzen Schocksekunde ungeniert weiter. Diesen Trend kann man natürlich nicht nur auf der Campixx wahrnehmen, sondern er zieht sich auch durch andere Konferenzen. Was aktuell im Raum passiert, wird unwichtig gegenüber dem Newsstream von außerhalb. Statt sich von dem Roboter in der Eröffnung faszinieren zu lassen, nesteln 500 Menschen reflexartig an ihren Smartphone-Kameras herum und über tausend Arme gehen mit dem Smartphone in die Luft und filmen, weil es immer wichtiger wird, anderen sofort mitzuteilen, was man gerade eben erlebt, statt es selbst zu „erleben“ und zu genießen. Man gibt dem gefühlten Dokumentationszwang nach und opfert die eigene Erlebniszufriedenheit dafür – oder ersetzt sie dadurch.

Ok Glass!

Patrik Zimmermann, Besitzer einer Google-Glass-Brille, stellte mit ebendieser auf der Nase recht umfassend die aktuellen „Wearable“ Devices vor. Seine These war, dass wir uns ständig in einem Modus der Selbstoptimierung befinden und versuchen, diesem Ziel mit solchen technischen Hilfsmitteln näherzukommen.

Sehr interessant waren seine Schilderungen über die App-Entwicklung für Google Glass mit dem Developer Kit. Eine Facedetection (zu unterscheiden von einer Personenerkennung!) hatte er nach eigenen Angaben innerhalb von nur zwei Stunden programmiert. Wer sich mit Android-Programmierung auskenne, so Zimmermann, hätte keine Probleme, sich einzuarbeiten. Für SEO interessant zu wissen ist sicher die Tatsache, dass es noch anspruchsvoller wird, über Google Glass Suchende zu erreichen. Aktuell zumindest ist es nämlich so, dass eine ausgelöste Suche nicht etwa die Auswahl der Suchergebnisse liefert, sondern direkt auf die Seite des ersten Suchtreffers leitet. Wer hier nicht auf Platz 1 steht, darf nicht mitspielen. Man darf hoffen oder befürchten, dass dies der Bequemlichkeit der späteren Nutzer, sich nicht via Prismabildschirm durch Suchergebnisse wühlen zu müssen, entgegenkommt. Zimmermann sinnierte auch über einige mögliche Anwendungsfälle. Interaktive Aufbauhilfen für IKEA-Möbel, statt dröger Papieranleitungen? Das Hochhalten einer Schraube und Glass sagt in Echtzeit, ob das für den nächsten Schritt die richtige ist? Es sind aber auch schon einige durchaus interessante Anwendungen verfügbar.

Als Schwäche sieht Zimmermann das aktuelle Bedienkonzept. Das Sprechen mit der Brille in der Öffentlichkeit oder das Rumwischen auf dem Bügel (das auch leicht als „Vogel-Zeigen“ missinterpretiert werden könnte) sei gewöhnungsbedürftig. Bei lauten Umgebungsgeräuschen könne es auch passieren, dass Glass reagiert und ungewollt Nachrichten abschickt. Auch die Steuerung per wackelnder Kopfbewegung könne – außer vielleicht in Indien – auf die Umwelt seltsam wirken. Hier wird sicher noch nachgebessert. Mit den ersten internetfähigen Handys online zu gehen, war schließlich auch kein Spaß, und erst als Touchbildschirme erfunden bzw. eingeführt wurden, gelang der Durchbruch.

Excel für SEO – noch immer spannend

Die Möglichkeiten der Onpage-Analyse mittels Excel wurden von Stefan Walcher gezeigt. Allen Unkenrufen zum Trotz ist dies nach wie vor eine gute Möglichkeit, die Berechnungen von Daten selbst in der Hand zu haben und diese auch dauerhaft zu speichern und zu versionieren. Basisdaten könne man, so Walcher, z. B. mit Screeming Frog abziehen, um sie dann via UTF-8-Konvertierung an Excel weiterzureichen. Er zeigt dabei auch viele praktische Beispiele und vor allem diejenigen Formeln wie „SVERWEIS“, „INDEX“, „VERGLEICH“ oder „VERKETTEN“, die man bei der Datenanalyse und -modifikation benötigt. Aber auch auf exotischere Formeln wie „UrlProperty“, mit der man aus einer URL automatisch den Domainnamen extrahieren kann und die man über Plug-ins wie „SEO Tools für Excel“ von Niels Bosma zur Verfügung gestellt bekommt, zeigte Walcher. Die Möglichkeiten sind vielfältig, wie z. B. verwaiste oder auch nicht indexierte Seiten zu finden oder auch eine Korrelation zwischen den vom Googlebot besuchten Seiten und dem realen Traffic herzustellen – hier kann man nicht nur interessante Antworten finden, sondern durch den eigenen Umgang mit den Datenquellen sehr viel dazulernen.

Infos direkt von Google

Diesmal nahmen auch zwei Googler aus dem Spamteam aus Dublin teil. Johannes Mehlem und Uli Lutz erläuterten, wie man mit Rich Snippets richtig umgeht, und gaben wertvolle Praxistipps für das Stellen von Reconsideration Requests. Wertvoll deshalb, weil die beiden u. a. genau diese Anträge bearbeiten und es daher wohl keine bessere Quelle für solche Tipps gibt.

Zunächst wies Uli Lutz darauf hin, dass es für gutes oder schlechtes Mark-up (das Auszeichnen besonderer Inhalte) keine Rankingvorteile gäbe. Lutz empfahl, dazu den „Data Highlighter“ von Google zu benutzen (http://einfach.st/gdatahigh). Mit dessen Hilfe könne man auch ohne Programmierkenntnisse mögliche Datenfelder auf der eigenen Webseite mit der Maus markieren und damit „taggen“. Werden solche Tags programmiert, werden die üblichen Schemata zwar erkannt, aber die sog. Mikroformate wären ideal dafür geeignet.

Wenn man sich jedoch für ein Format entschieden habe, solle man es konsequent einsetzen, so Lutz. Für den programmiertechnischen Einsatz kann der Mark-up Helper (http://einfach.st/gmuphelp) von Google nützlich sein. Mit ihm hinterlegt man die Tags im Quellcode, während beim Data Highlighter die manuell markierten Bereiche direkt bei Google gespeichert werden – unabhängig vom Quellcode der Seite. Ein möglicher Nachteil dieser einfachen Methode ist, dass diese Daten dann bei anderen Suchmaschinen nicht vorliegen. Wenn man die Qualitätsrichtlinien von Google nicht einhält bzw., einfach formuliert, versucht, mit falschen Einträgen Dinge vorzugaukeln, kann dies zur Deaktivierung dieses besonderen Anzeigenformats führen. Hier sendet Google eine entsprechende Mitteilung über die Webmaster-Tools.

Reine Disavow-Meldungen für Links reichen nicht!

Von den monatlich 18.000 weltweit eingehenden Anträgen auf Wiederaufnahme in den Index (Reconsideration Request) fallen etwa 1.500 auf Deutschland, erklärte Johannes Mehlem. Jeder Antrag würde persönlich angesehen, versicherte er. Bei Linkstrafen genügen die Webmaster-Tools als Datenquelle für einen möglichen Linkabbau sowie die Einreichung über das Disavow-Tool. Externe Tools kann man verwenden, das wäre aber nicht zwingend nötig. Mehlem wies darauf hin, dass man immer auch versuchen sollte, Links abzubauen bzw. abbauen zu lassen. Einfach nur einen Satz Links in das Disavow-Tool zu werfen, wäre der falsche Weg. Man sollte auch erkennen können, dass der Sitebetreiber ernsthaft versucht, seine Linkstrukturen wieder zu säubern. Auch bei mehreren Anträgen nacheinander (wenn die bisherigen Maßnahmen nicht ausgereicht hätten) sollte man einen deutlichen Fortschritt sehen können. Den gleichen Antrag mehrmals einzureichen, bringe nichts. Zu einem ernsthaften Antrag gehöre auch eine gute Dokumentation, die von den Bearbeitern bei Google auch tatsächlich gelesen werde. Diese mache man am besten über ein Google-Doc auf GDrive, das man per Link freigibt bzw. indem man diesen Link mit einreicht.

Die häufigsten Fehler bei Reconsideration Requests:

  1. Es werden genau nur die Links entfernt, die beispielhaft in den Webmaster-Tools in der Hinweismeldung angeführt werden.
  2. Es werden zu wenige schlechte Links entfernt bzw. per Disavow-Tool gemeldet.
  3. Es werden nur Links per Disavow gemeldet, aber keine auch physisch von Webseiten entfernt.

Das Disavow-Tool kann laut Mehlem auch proaktiv eingesetzt werden, also ohne vorherige Strafaktion. Es empfiehlt sich, besser eine ganze Domain einzureichen als einzelne URL. Damit verhindert man, dass der schlechte Link ggf. noch auf anderen Seiten der Domain verwendet wird oder auch verschoben wird (bei Blogsystemen z. B. in ein Archiv). Er versicherte erneut (siehe Rubrik „Ask Google“), dass die so gemeldeten Domains auf keiner Blacklist bei Google landen. Dieses Signal wäre zu „noisy“, wie er es bezeichnete.

„Was soll ich denn schon groß schreiben zu …?“

In einer für Anfänger angekündigten Session zeigte Karl Kratz echte Powertipps auch für Profis. Die übliche Frage nach der Erkenntnis, dass Text, und vor allem guter Text, für Besucher und Suchmaschinen wichtig ist, lautet, was man denn um Gottes willen alles zu diesem oder jenem Produkt schreiben solle. Gegen diese häufig anzutreffende Fantasielosigkeit stellte Kratz ein gut verständliches Konzept als Leitfaden vor. Fragen wie: „Was hat der Interessent vorher gemacht, wo kommt er her, welche Fragen haben ihn umgetrieben?“, muss man sich dazu ebenso stellen wie: „Was will und muss er wissen, bevor er sich zum Kauf entscheiden kann?“ Während den einen interessiert, ob das T-Shirt beim Waschen noch eingeht, will ein anderer wissen, ob der Stoff hautverträglich ist, ob Bäume dafür sterben mussten, ob die grelle Farbe nicht vielleicht abfärbt, wenn man schwitzt, oder ob der Aufnäher aus Leder ist – was ernsthafte Veganer durchaus stören kann. Die Informationen dazu finden sich überall im Web, so Kratz. Man müsse sie nur suchen (z. B. in Foren oder Frage- und Antwortportalen) und dann von der konkreten Fragestellung abstrahieren und die unterschiedlichen Perspektiven erkennen: Welches Problem bzw. welche übergreifende Frage steckt dahinter? Die Antworten auf die Top-Fragen gießt man dann in beschreibende Texte oder auch in Aufzählungen von Vorteilen. Und in der Regel gibt es natürlich immer mehrere Perspektiven auf ein Objekt – wie die beiden nicht ganz ernst gemeinten Perspektiven auf Karl Kratz in Abbildung 7 und 8 deutlich zeigen.

Kratz wies auch noch einmal darauf hin, dass das Testing wichtiger Bestandteil einer Contentstrategie sein muss. Dazu gehört auch, seine Eingangskanäle zu testen und getrennt zu beobachten. Messen, messen, messen, so sein Credo: „Wenn wir nicht messen, haben wir einen Inhalt erstellt, nur um ihn erstellt zu haben.“ Was soll ein Text erreichen? Soll er verkaufen, viele Likes oder Shares bekommen, eine hohe Reichweite erzielen, Zufriedenheit beim Leser erzeugen, Image aufbauen etc.? Wenn keine Ziele fixiert sind, kann man die Zielerreichung auch nicht messen und wird auch wirklich keinen Deut schlauer, welche Wege für die zukünftige Arbeit effizienter und effektiver sind.

Quo vadis, SEO Campixx?

Am Ende bleibt noch die eingangs gestellte Frage offen, wohin sich die SEO Campixx entwickelt. Eines war in jedem Fall sichtbar: Der Anteil an jüngeren Teilnehmern und gerade auch der an Teilnehmerinnen ist extrem stark gestiegen. Problematisch ist nach wie vor die Anmeldung. Auch dieses Mal waren nach wenigen Minuten alle Karten weg. Einige Vortragende verrieten hinter vorgehaltener Hand, nur deswegen einen Vortrag angeboten zu haben, um auf jeden Fall eine Karte zu bekommen. Das mag vielleicht auch eher als Entschuldigung für die fehlende eigene Motivation, einen guten Vortrag vorzubereiten, verwendet worden sein. Aber möglicherweise muss man zukünftig noch stärker darauf achten, dass Sessions von bisher unbeschriebenen bzw. unbekannten Referenten nicht zum „Eintrittsmissbrauch“ führen. Sicher keine einfache Aufgabe, wenn man den offenen Spirit dieser „Unkonferenz“ erhalten möchte.

2015 geht Veranstalter Marco Janck einen mutigen und spannenden Weg. Er bietet eine ganze Woche Thementage an, die dann am Wochenende mit dem Höhepunkt der SEO Campixx abschließen. Die Tage sollen auch einzeln buchbar sein. Mehr Informationen wird es rechtzeitig unter www.seo-campixx.de und natürlich auch in der Website Boosting geben.