Der SEO-DAY 2015 in Köln

Mario Fischer
Mario Fischer

Mario Fischer ist Herausgeber und Chefredakteur der Website Boosting und seit der ersten Stunde des Webs von Optimierungsmöglichkeiten fasziniert. Er berät namhafte Unternehmen aller Größen und Branchen und lehrt im neu gegründeten Studiengang E-Commerce an der Hochschule für angewandte Wissenschaften in Würzburg.

Mehr von diesem AutorArtikel als PDF laden
Steffen Drews
Steffen Drews

Steffen Drews ist Mediengestalter und E-Commerce-Student an der Hochschule für angewandte Wissenschaften Würzburg-Schweinfurt. Seit 2011 betreut er mit ubercommerce.de Kunden im Bereich Multichannel-Commerce und Online-Marketing.

Mehr von diesem AutorArtikel als PDF laden

Über 40 knackige Vorträge in vier parallelen Slots für Einsteiger, Fortgeschrittene und Entwickler – auf dem SEO-DAY im RheinEnergie Stadion des 1. FC Köln war wohl für jeden Wissensbedarf der über 800 Teilnehmer etwas Passendes dabei. Auch das Thema Charity kam nicht zu kurz: Eine von Experten aufgebaute Domain konnte für einen guten Zweck für über 7.000 € versteigert werden. Website Boosting hat sich zum ersten Mal auf dieser Konferenz umgesehen und für Sie höchst subjektiv einige Highlights und Tipps herausgegriffen. 

Für Einsteiger hatte Tobias Fox zehn konkrete SEO-Tipps parat. So sollte man bei einer Keywordanalyse nicht immer nur nach dem Suchvolumen schielen, sondern vor allem auch nach Relevanz priorisieren. Damit das besser gelingt, macht es Sinn, immer auch eine Recherche über die Suchworte der Wettbewerber und die Themen Emotion oder auch anstehende (Branchen-)Ereignisse mit einzuschließen. Die so identifizierten Keywords kann man dann mit sog. Suggest-Begriffen anreichern, die Google beim Tippen im Suchschlitz aufbaut. Tools dafür lieferte Fox gleich mit:

Natürlich darf eine sog. semantische Textoptimierung (z. B. via OnPage.org oder Seolyze.com) nicht fehlen. Hier werden Kernbegriffe identifiziert, die in einem Text mitverwendet werden sollten, damit die Themenzuordnung für Google leichter gelingt und so am Ende auch ein besseres Ranking erzielt werden kann.

Einer der weiteren Tipps war, vor bzw. während eines Relaunchs mindestens für gut rankende URLs – solche, die echten Traffic einsammeln –, und für Seiten, auf die Backlinks zielen, eine 301-Weiterleitung einzurichten. Fox wies darauf hin, dass die Kosten für SEO-Maßnahmen nach einem Relaunch 200 bis 400 % höher liegen, als wenn diese bereits im Vorfeld berücksichtigt und geplant werden.

Dominik Wojcik hielt SEO-Profitipps für Experten bereit. Einer davon zielte auf Websites, die einen hohen Anteil an dynamisch erstellten Inhalten haben und zum Beispiel mit dem Framework Angular.js erstellt wurden. Deren Inhalte kann Google meist nicht gut indizieren oder noch nicht einmal crawlen. Die Lösung hierfür zeigte er am Beispiel von here.com mit sog. „scaped fragments“. Auf der Site wurde im Prinzip nur eine mittels Ajax geladene Karte inklusive Verkehrsinformationen visuell dargestellt. Für Google war somit zunächst kein Inhalt indexierbar. Dieser wurde auf einer anderen URL hinterlegt. Diese URL könnte z. B. der Original-URL entsprechen, einen Parameter angehängt haben und dann wie folgt aussehen:

www.example.com?myquery&_escaped_fragment_=key1=value1%26key2=value2

Google wird diese Ergebnisse nur crawlen, wenn diese entweder die Kennzeichnung #! in den Parametern haben oder ein Opt-in mittels des Meta-Tags <meta name="fragment" content="!"> erfolgt. Auf den mit Parametern versehenen URLs kann nun der Inhalt der zuvor nicht indexierbaren Seiten in einer für Google lesbaren Form hinterlegt werden. Am Beispiel von here.com waren dort sämtliche Verkehrsmeldungen in Textform mit strukturierten Daten vorhanden. So ist es möglich, trotz einer schicken userzentrierten Webseite stabile Rankings für Anfragen wie z. B. „Seattle Traffic“ zu behalten.

Was ist eigentlich, wenn man auf eine Domain keinen Zugriff mehr hat und Teile auf eine neue Domain umleiten möchte? Auch hierfür hatte Wojcik einen ganz speziellen Tipp mit im Gepäck. Dazu zeigte er ein Beispiel, in dem das über eine Sitemap gemacht wurde, welche noch über das CMS editierbar war. Er versah alle alten URLs mit dem hreflang-Tag x-default, das eigentlich als Sprachweiche vorgesehen ist, und gab für den Wert der Variable ganz einfach die neue Domain an. So gelang ihm eine saubere Weiterleitung und Übernahme der Rankings von der alten auf die neue Domain.

Immer mehr Webmaster wollen sich gegen eine Bilderverwendung durch Dritte wehren, welche die eigenen Bilder durch sog. Hotlinking einbinden. Als Hotlinking bezeichnet man die Technik, bei der Bilder auf einer anderen Seite per Verlinkung direkt eingebunden und angezeigt werden. Die „kopierende“ Website legt das anzuzeigende Bild also nicht selbst ab, sondern holt es beim Seitenaufbau direkt von der Quelle. Für den Besucher der Seite ist das natürlich in der Regel nicht erkennbar. Gegen diese Verwendungsart gibt es diverse Skripte, die das Hotlinking verhindern. Dabei stößt man allerdings auf ein großes Problem, da es kürzlich ein Update bei der Google-Bildersuche gab. Weil Google im Endeffekt ja auch nichts anderes tut, als Hotlinking zu betreiben, wenn es Bilder in den Suchergebnissen anzeigt, wird das Bild durch ein Anti-Hotlinking-Skript ebenso ausgeschlossen wie alle anderen Seiten! Das führt dann zum kompletten Verlust der Bilderrankings bei Google in der Universal Search. Daher sollte man, so Wojcik, den Google-Bot unbedingt auf eine White List setzen, sodass speziell Google und ggf. auch anderen Suchmaschinen das Hotlinking erlaubt wird.

Marcus Tober stellte als Premiere die neuen Daten einer Searchmetrics-Studie über mobiles Ranking in Deutschland vor. Dafür hatte man Seiten mit ähnlichen Inhalten hinsichtlich des Erfolgs verglichen. Ganz generell ist das Verhalten auf mobilen Devices völlig anders, da die Inhalte anders und in anderem Kontext konsumiert werden. Mobile Inhalte bzw. (Sub-)Domains für mobile Websites müssten daher auch von Google anders bewertet werden, so Tober, insbesondere, weil mobile Seiten keine oder nur wenige Backlinks bekommen. Wer eine Seite auf dem Smartphone oder Tablet ansieht, hat dort oft gar nicht die technischen Möglichkeiten zu verlinken bzw. ist das deutlich aufwendiger als bei der Desktop-Nutzung. Wer für die Arbeit und im Unternehmen nur den Desktop nutzt, kann daher leicht ein völlig falsches Bild von der Realität bekommen.

Tober zeigte einige Beispiele von Domains, die völlig unterschiedlich auf die Anforderungen für „Mobile“ reagiert haben. Eine Domain im Finanzbereich verzeichnet bisher einen Einbruch über 46 % und hat bis heute darauf nicht reagiert. Eine andere Domain richtete nach einem Einbruch über 36 % eine Subdomain für mobile Inhalte ein und hat sich fast völlig erholt. Eine dritte Domain, die Tober zeigte, hat mittlerweile nach der Einführung einer mobilen Variante sogar in Summe bessere Rankings als im Desktop-Bereich. 

„Wo wir hingehen, brauchen wir keine Links“; Marcus Tober

Bei guten mobiloptimierten Seiten ist z. B. die Anzahl der Navigationselemente reduziert. Das macht auch Sinn, weil auf den kleinen Displays nur sehr wenig Platz vorhanden ist. Die Nutzer wollen so schnell als möglich an den Content und daher müssen die Texte sehr viel besser strukturiert und zum Teil inhaltlich fokussierter werden. Zu viel Text verbiete sich alleine schon wegen der längeren Ladezeit. „Das Auge mag Ordnung“, meinte Tober. Google hat nach seiner Meinung aktuell enormen Druck wegen des Themas, weil die Investoren wegen des Werbeproblems auf mobilen Geräten nervös werden könnten. Daher investiere man dort derzeit enorme Summen in dieses Gebiet. Überfordert man die Besucher mit zu vielen Links auf einer mobilen Landingpage, kann die Bounce-Rate schnell ansteigen. In der Studie konnte festgestellt werden, dass die durchschnittliche Anzahl interner Links bei mobilen Seiten mit 88 deutlich niedriger ist als die bei Desktops mit 117. Während bei Desktop-Suchergebnissen das Keyword im Title mit 76 % zu finden ist, sinkt der Anteil bei gut rankenden mobilen Seiten auf nur noch 68 %.  

In der Optimierung für mobilen Traffic liegt nach Tober derzeit großes Potenzial, weil viele Mitbewerber hier nicht oder noch nicht reagiert haben. Gute Rankings in diesem Segment sind somit (noch) sehr viel leichter zu erreichen. Zum Zeitpunkt des Redaktionsschlusses war die neue Studie unter www.searchmetrics.com/de/mobile2015/ noch nicht erreichbar. Tober versprach aber, dass sie baldmöglichst kostenfrei zur Verfügung steht.

Johannes Beus von Sistrix hat eine Analyse der Rankingdaten über die neue API der Searchconsole von Google vorgenommen. Platz 1 in den Suchergebnissen sammelt demnach gerundet fast 60 % aller Klicks ein. Danach nimmt die Klickrate schnell und extrem ab: Platz 2 hat nur noch ein Viertel davon, nämlich 16 %, Platz 3 8 %, Platz 4 5 % bis hin zu Platz 10 mit nur noch 0,7 % aller Klicks. Platz 11 auf Seite zwei bekommt statistisch gesehen nur noch 0,17 % des möglichen Traffics. Hinsichtlich der Geräte (Desktop, Tablet, Smartphone) sind diese Ergebnisse relativ ähnlich. Beus fand aber auch heraus, dass diese Zahlen je nach Land teilweise enorm variieren. In Spanien z. B. fallen sogar 77 % aller Klicks auf Position 1. Wenig überraschend, aber durch Zahlen gut belegt, zeigte er am Ende noch, dass während der Woche der Desktop-Traffic dominiert, während dieser am Freitag von Smartphone- und Tablet-Traffic deutlich überholt wird.

Der ehemalige Google-Spamfighter Kaspar Szymanski gab den Teilnehmern Tipps, wie man am besten aus einer manuellen Penalty (Strafe) wieder herauskommt. Das „Aussitzen“ ist nach seiner Meinung der schlechteste Weg, denn das kann sehr lange dauern. Zudem kann eine Strafe nach dem automatischen Ablauf manuell erneut verhängt werden, wenn die Gründe nicht beseitigt wurden. Sites hätten nicht selten beides: algorithmische und gleichzeitig manuelle Strafen. Da nur Letzteres über die Search Console bekannt gegeben wird, können Missverständnisse entstehen. In solchen Fällen reicht es nicht, die jeweilig bekannt gegebenen Gründe zu beheben und einen sog. Reconsideration Request (Antrag auf Wiederaufnahme) zu stellen. Nach dem Entfernen der manuellen Strafe durch die Google-Mitarbeiter bleibt das algorithmische Problem nämlich bestehen und man erzielt trotz der Aufhebung keine guten Rankings (mehr).

„Mein Onkel ist Rechtsanwalt, sie werden von uns hören!“; Hobby-SEO

Wurde eine manuelle Strafe verhängt, erwartet Google, dass die Ursachen dafür – z. B. gekaufte Links – (fast) vollständig behoben werden und die Site wieder regelkonform ist. Szymanski empfahl, dafür ab und zu in die Richtlinien von Google zu schauen, da diese immer wieder mal aktualisiert bzw. präzisiert oder erweitert werden. Drohungen von bestraften Webmastern z. B. mit anwaltlichen Schritten oder sonstige Begründungen laufen völlig ins Leere. Die Möglichkeiten für manuelle Strafen sind durchaus breit gefächert und können sich

  • auf einzelne oder mehrere HTML-Seiten,
  • ein oder mehrere Verzeichnisse,
  • oder die ganze Domain

auswirken. Einer geäußerten Vermutung, Google recherchiere Webmastern grundsätzlich „hinterher“, um ggf. auch andere Domains zu untersuchen, erteilte Szymanski eine Absage. „Querpenaltys“ gibt es seiner Erfahrung nach in der Regel nicht. Strafen wären ohnehin immer domain- und nicht personenbezogen. Google veranstalte keine Hexenjagd und im nicht klärbaren Zweifelsfall würde konkret immer für die Domain entschieden und damit keine Strafe verhängt.

Einer der vielen Highlights des SEO-DAY war sicherlich der Vortrag von Rechtsanwalt Christian Solmecke. Er brachte den anwesenden SEOs die vielfältigen Fallstricke näher, die bei Nichtbeachtung durchaus finanziell schmerzhafte Konsequenzen haben können. So reichte z. B. die Verwendung einiger weniger Zeilen eines Gedichts von Heinz Erhard auf einem Blog, um den Verlag, der die Rechte daran hält, zur Zusendung einer Abmahnung über 1.500.- € zu veranlassen. Dass eine Person bereits verstorben ist, hebelt das Urheberrecht nicht aus. Erst 70 Jahre nach dem Tod können keine Rechte mehr geltend gemacht werden.

„Um alle Nutzungsbedingungen von Facebook mit den enthaltenen Querverweisen per Link durchzulesen, braucht man 7,5 Stunden“; Christian Solmecke

Hätte man diese Nutzungsbedingungen aufmerksam gelesen, wüsste man z. B., dass man mit dem Hochladen von Abbildungen die Nutzungsrechte auch an Facebook abtritt – also ggf. auch die des Unternehmenslogos.

Gerade bei Social-Media-Präsenzen von Unternehmen kann es beim Impressum problematisch werden. Dieses muss nach allgemeiner Rechtsauffassung mit höchstens zwei Klicks erreichbar sein und eine eindeutige Bezeichnung tragen. Zudem lässt sich ein solcher Link oft bei mobilen Versionen solcher Plattformen gar nicht oder nur sehr schwer finden. Hier schwebt über vielen Unternehmen wohl ein Damoklesschwert, vor allem bei Facebook-Seiten, wo natürlich auch ein Impressum vorgehalten werden muss. Der Umstand, dass es bei einigen Plattformen gar keine Möglichkeit gibt, ein solches entsprechend deutschem Recht zu hinterlegen, ist für diesbezügliche Abmahnungen irrelevant, so Solmecke. Ein Impressum mit dem Linktext „Info“ genügt beispielsweise lt. dem Landgericht Aschaffenburg nicht. Auf der Website seiner Kanzlei kann man übrigens kostenfrei das eigene Impressum auf die häufigsten Abmahngründe unter www.wbs-law.de/abmahncheck/ automatisiert prüfen lassen. Neben Abmahnungen von Mitbewerbern können bei einem fehlenden oder falschen Impressum auch die Behörden tätig werden und ein Bußgeld von bis zu 50.000 € verhängen. Dies werde aber aktuell noch nicht verfolgt.

Typische Kosten bei typischen Urheberrechtsverletzungen bezifferte er wie folgt:

  • Partyfotos: 3.000 € für Anwälte, 2.000 € für die Partygäste
  • Gedichte: 1.000 € für den Anwälte, 1.000 € für den Dichter
  • Youtube-Videos: 2.000 € für die Anwälte, 2.000 € für die Künstler
  • Fanfotos: 2.000 € für die Anwälte, 1.000 € für den Fotografen, 1.000 € für den Star

Auch das Teilen von Beiträgen bei Facebook ist nicht unproblematisch, da Facebook per Voreinstellung ein Vorschaubild als physikalische Kopie anlegt, was ebenfalls urheberrechtliche Schadensersatzforderungen nach sich ziehen kann. Solmecke berichtete von einem Fall, wo ein Fotograf der Bildzeitung gegen Kopien geteilter Beiträge Rechte geltend machte, obwohl ein Share-Button auf den Seiten von Bild.de geradezu dazu auffordert. Der Fall konnte allerdings gütlich beigelegt werden.

Solmecke gab den wertvollen Rat, am besten präventiv „sauber“ zu bleiben. Das Problem bei Abmahnungen ist nämlich, dass man sich verpflichten muss, die beanstandeten Urheberrechtsverletzungen zu beseitigen bzw. Kopien zu löschen – was nicht immer bzw. bei Facebook durch das Sharing geradezu unmöglich ist. Gelingt das nicht, werden oft enorme Summen für die Zuwiderhandlungen fällig. Auch der häufig verwendete „Disclamer“ schützt nicht vor Abmahnungen und kann bei Fehlern zudem selbst Gegenstand von Abmahnungen werden.

Über die Inhalte des Vortags, des sog. „ExpertDAY“ wurde – wie oft üblich in der Szene wenn alle Vortragenden wirklich völlig frei sprechen – via „don´t tweet – don´t tell“ ein Publikationsverbot verhängt. Wer auch an solche Inhalte kommen möchte, dem bleibt wohl nichts anderes übrig, als selbst nach Köln zu fahren und sich den Termin im Oktober 2016 schon jetzt vorsorglich im Kalender vorzumerken. Alles in allem ist der SEO-DAY sicherlich eine der Veranstaltungen, die man auf dem Zettel haben sollte.