OMX und SEOkomm in Salzburg

Smarte Hebel für SEO und Online-Marketing

Dominik Quambusch
Dominik Quambusch

Dominik Quambusch ist E-Commerce-Student an der Hochschule für angewandte Wissenschaften Würzburg-Schweinfurt, zudem ein passionierter Online-Marketer und Berater für alle Fragen, die das Thema SEO und SEA betreffen.

Mehr von diesem AutorArtikel als PDF laden
Mario Fischer
Mario Fischer

Mario Fischer ist Herausgeber und Chefredakteur der Website Boosting und seit der ersten Stunde des Webs von Optimierungsmöglichkeiten fasziniert. Er berät namhafte Unternehmen aller Größen und Branchen und lehrt im neu gegründeten Studiengang E-Commerce an der Hochschule für angewandte Wissenschaften in Würzburg.

Mehr von diesem AutorArtikel als PDF laden

Wie immer im November fanden sich in Salzburg in der Brandboxx zahlreiche Online-Marketing-Experten zusammen und beschäftigten sich in zwei aufeinanderfolgenden Konferenzen – der OMX und der SEOkomm – mit Neuem und Bewährtem. Als Referenten waren auch diesmal wieder namhafte Experten dabei, so zum Beispiel Karl Kratz, Marcus Tandler, André Morys, Felix Beilharz und viele andere. Die Vortragsreihen für Profis wurden übersichtlich in einen „Hardcore-“ sowie einen „Strategie-Track“ unterteilt. Neueinsteiger konnten sich im „Grundlagen-Track“ fundiertes Fachwissen für einen breiten Gesamtüberblick aneignen. Website Boosting hat für Sie wie immer die subjektiv wichtigsten Themen, Tipps und Hinweise zusammengetragen.

Inhaltlich konzentriert sich die OMX vor allem darauf, sich dem Thema Online-Marketing mit Weitblick zu nähern. Das macht die Veranstaltung gerade auch für Einsteiger interessant und empfehlenswert. Über 20 Referenten aus dem deutschsprachigen Raum teilten ihr Wissen nicht nur über Suchmaschinen-Marketing oder PPC, auch sehr viele moderne Themen wie Storytelling, Social Media oder Conversion-Rate-Optimierung waren Teil der Agenda.

Keine Daten, keine vernünftige Entscheidung

Zum letztgenannten Thema gab sich Conversion-Hero André Morys die Ehre und berichtete über vierzig Learnings aus seiner täglichen Arbeit. Ein Eye-opener war die Aussage, man solle nicht immer seiner „Erfahrung“ trauen und davon ausgehend Entscheidungen aus dem Bauch heraus treffen, nur weil man meine, seine Zielgruppe und Webseitenbesucher so gut zu kennen und zu verstehen. Liege einer Maßnahme kein belastbarer Entscheidungsprozess zugrunde, sei jedeUmsetzung nichts weiter, als „ins Blaue hinein zu raten“. Diese Aussage unterstrich Morys mit einigen Beispielfolien zur Frage: „Was konvertiert besser? Variante A oder Variante B?“ Erstaunlich, wie oft die Teilnehmer selbst bei einfachen Beispielen daneben lagen. Dies verdeutlichte, dass der größte Erfahrungsschatz nicht immer der beste Helfer ist. Jeder User sei ein Individuum und nur dieser wüsste jeweils, was konvertiere und was nicht. Ohne eine vernünftige Hypothese brauche man mit dem Testen eigentlich erst gar nicht anfangen. Beliebig Elemente nach Farbe oder textlicher Änderungen auszutauschen, sei keine empfehlenswerte Vorgehensweise – selbst wenn eine Variante besser performe: Man wisse realistisch gesehen am Ende trotzdem nicht, warum dies so war. Echte Learnings bleiben also aus.

Die folgenden Kernfragen sollten laut Morys vor einem Testing auf jeden Fall mit Ja beantwortet werden können:

  • Besteht Relevanz zwischen Test und Hypothese?
  • Wird das Getestete überhaupt wahrgenommen?
  • Bietet die gewünschte Verbesserung einen Mehrwert (finanziell)?
  • Ist die Hypothese allein stellend?
  • Folgt die Hypothese psychologischen Prinzipien?

Ein weiteres Problem: Ein Test könne noch so gute Ergebnisse liefern, seien diese jedoch durch zu wenig Traffic oder zu kurze Laufzeit nicht signifikant und valide, sei die ganze Testerei für die Katz’. Vernünftige Tests dauern zwar länger und kosten in der Regel etwas mehr, dafür erhalte man dann eben auch fundierte und aussagekräftige Ergebnisse. Daher solle die Mindesttestlaufzeit und -besucheranzahl bereits vor dem Test festgelegt werden, um vorschnell gezogenen Schlüssen auf vielversprechende Uplifts den Garaus zu machen.

„Jede Webseite ohne Handlungsaufforderung kann gelöscht werden!“; Karl Kratz

Auch wenn es hart klingt, Karl Kratz traf mit seiner Keynote nach der Reaktion des Publikums voll ins Schwarze und brachte wieder einmal die Zuhörer sowohl zum Schmunzeln als auch zum Grübeln. Mit ziemlicher Sicherheit habe jeder seiner Zuhörer die eine oder andere Contentleiche im Keller, so seine These. Er stellte die Frage: „Benutze ich smarte Hebel in meinem Unternehmen oder mache ich das, was alle machen, und das, was ich schon immer mache?“ Täglich werde neuer Content produziert, der eigentlich direkt im Mülleimer besser aufgehoben sei. Jeder jage seinen textlich drögen Einheitsbrei ins Web hinaus und packe immer mehr solchen Content oben drauf. Solche Mengen können dann aber irgendwann nicht mehr vernünftig gepflegt werden.

Macht es also überhaupt Sinn, alle vorhandenen Web-Assets zu verwalten und zu versuchen, diese in irgendeiner Form aktuell zu halten? Oder wäre es nicht besser, sich von altem Ballast zu befreien und sich nur noch um die wahren Contentschätze zu kümmern und eben diese gezielt immer besser zu machen? So vermittelte er seinen Zuhörern immer wieder den folgenden Ablauf, der auch gleichzeitig eine seiner Kernaussagen war:

Fokussierung >> Reduktion >> Intensivierung

Also bestehende Inhalte intensivieren und verbessern, statt immer und immer wieder noch weitere ähnliche zu erschaffen.

„Reduktion setzt Ressourcen frei“; Karl Kratz

Dieses Zitat verdeutlicht den Sinn des eben genannten Ablaufes noch besser und gibt ihm finanzielle Legitimation. Anstatt immer neuen Content für alles Mögliche zu produzieren, können Mitarbeiter durch Reduktion entlastet werden und erstmals wieder das Gefühl bekommen, die Kontrolle über ihre Assets zu haben.

Info

Wie lässt sich Content finden, der bedenkenlos gelöscht werden kann? Wird eine dieser Fragen mit Ja beantwortet, so wird es Zeit, sich von diesem zu verabschieden.

  • Leisten diese Seiten keinen Beitrag bzw. haben diese Seiten streng genommen keine richtige Daseinsberechtigung?
  • Rankt die Seite nur mittelmäßig und lässt sich dies ohne großen Aufwand nicht verbessern?
  • Existieren zu diesem Thema mehrere Artikel?
  • Rankt die Seite, ist aber irrelevant für potenzielle Kunden?

Der Mensch ist eine nachwachsende Ressource

„Warum nutze ich so vieles nur einmal?“ Absolut alles sei für jeden Menschen zum ersten Mal neu, so Kratz. Daher mache es in seinen Augen überhaupt keinen Sinn, immer wieder manuell erzeugte Newsletter zu verschicken, deren Wirkung bereits zur Laufzeit verpuffe. Also riet er seinen Zuhörern: Weg vom Newsletter und hin zum automatisierten Everletter. Das bedeute, dass man nicht den kompletten Kundenstamm mit „irgendwelchem Contentbrei bewerfen“ solle, sondern die Kunden segmentiert betrachte und zur richtigen Zeit mit dem passenden Content beliefere. Dies gehe also mehr in die Richtung der Prozessoptimierung als der Kampagnenoptimierung. Er verdeutlichte dies mit einem Beispiel von Chefkoch.de.

In den vergangenen 17 Jahren machte man sich bei Chefkoch jedes Mal aufs Neue Gedanken zur Spargelsaison und welche spannenden und neuen Themen man denn mit Spargel verknüpfen könne. Darüber wurde dann jeweils ein Beitrag verfasst. Also wurde jedes Jahr wieder irgendetwas zum Thema Spargel veröffentlicht. Nun beschloss man, einen anderen Weg zu gehen. Der bestehende Spargel-Content wurde zu einem „Spargel-Master-Artikel“ zusammengefasst, der nun künftig jedes Jahr etwas angepasst wird, um auf aktuellem Stand zu sein. Das hat den Vorteil, dass man nicht fünfzehn verschiedene Artikel zum eigentlich gleichen Thema hat. Auch die betroffenen Redakteure werden dankbar sein, wenn sie nicht wieder die Welt des Spargels neu erfinden müssen. Der Vorteil dabei: Der Spargel-Artikel wird mit jedem Mal besser und besser, also intensiviert.

Wie kann ich Social Media für mein Unternehmen nutzen?

Eine Frage, die sich in letzter Zeit auch immer mehr Besitzer und Entscheider von kleinen und mittelständischen Unternehmen stellen. Hier knüpfte Felix Beilharz, einer der bekanntesten Social-Media-Experten im deutschsprachigen Raum, an und brachte dem Publikum die verschiedenen Social-Media-Kanäle näher. Einer der neusten Kanäle zurzeit sei „Periscope“. Dieser lasse sich gut für Livemarketing nutzen. Periscope ist eine Live-Stream-App, über die Videos in Echtzeit übertragen werden können. So habe man als Nutzer die Möglichkeit, selbst Videos zu streamen oder Livestreams anderer Nutzer zu verfolgen. Das Ganze funktioniere ähnlich wie Younow, nur von unterwegs aus per App.

„Wir sind auf Facebook, weil alle anderen doch auch auf Facebook sind!“

Es haben sich laut Beilharz mittlerweile ganze Parallelwelten entwickelt, in denen sich hauptsächlich jüngere Generationen tummeln. Aber gerade wenn man diese Zielgruppe ansprechen möchte, könne es nicht schaden, hier als „Early-Adapter“ einzusteigen. „Social“ beeinflusse mittlerweile jede zweite Kaufentscheidung, so Beilharz. Wer vertraue also wem? Werbung funktioniere gut zur Kundenansprache und sei hervorragend geeignet, um Reichweite zu generieren. Die Kaufentscheidung werde aber eher durch Freunde, andere Nutzer (z. B. Produktbewertungen) oder Markenbotschafter beeinflusst.

Der Referent stellte seinen Zuhörern außerdem folgende Frage: Warum Social Media? Wenn die Antwort laute: „Wir sind jetzt auch auf Facebook, weil der Mitbewerber auch hier ist“, so solle man es gleich sein lassen. Social Media sei ein Image- und Kommunikations-Kanal, der nicht auf die leichte Schulter genommen werden dürfe. Nehme man das Thema nicht ernst, könne gerade in Zeiten von Shitstorms etc. die Maßnahme schnell nach hinten losgehen.

Ein gutes Beispiel für Social Media sei hier der Twitter-Account der Deutschen Bahn (https://twitter.com/db_bahn), wo auch gerne mal lustige Dialoge zwischen Kunden und Unternehmen entstehen. Social Media lassen sich aber auch zur Personalgewinnung einsetzen. Hierbei lohne sich ein Blick auf Xing und Linkedin oder Bewertungsplattformen für Unternehmen wie Kununu oder Glassdoor. Auch für lokale Ladengeschäfte und Restaurants lassen sich soziale Medien wunderbar einsetzen. Man könne seine Kunden mit einem Discount belohnen, wenn diese sich auf einer der diversen Online-Plattformen markieren oder „einchecken“. Der Smoothiehersteller Truefruits nutze beispielsweise intensiv Hashtags. Einfach mal nach dem Hashtag #einhornkotze suchen. So schaffe man eine Symbiose aus online und offline. Fragen, die man sich vor dem Einsatz und der Wahl der Plattform stellen solle, seien laut Beilharz: Wen will ich ansprechen? Was ist meine Zielgruppe, Bestandskunden oder Neukunden? B2B oder B2C? Einer der wichtigsten Erfolgsfaktoren im Social Media sei es, alles mit Liebe und Passion umzusetzen und ganz und gar, nicht nur von „nine to five“.

Hat man durch den erfolgreichen Einsatz von Social Media Besucher auf die Website geholt, gilt es, diese zu führen und zu leiten. Am besten noch möglichst lange, um positive Nutzersignale zu generieren, die Markenbotschaft oder eine Message zu überbringen. Dies lässt sich hervorragend mit Storytelling umsetzen. Genau daran knüpfte Silvia Ettl-Huber an, Forschungsleiterin an der FH Burgenland. Aber warum überhaupt Storytelling? Frau Ettl-Huber beantwortete diese Frage damit, dass nur ein begrenzter Speicher in unseren Hirnwindungen für Daten und Fakten zur Verfügung stehe. Dieser Speicher nehme aber viel besser Geschichten auf. Auch aus Marketingsicht mache eine Geschichte zu einer Aussage oder einem Produkt einen authentischeren Eindruck. Sei dies erreicht, sei ein Hinterfragen für unser Gehirn nicht mehr nötig. Zudem können mit einer passenden Geschichte auch komplexe Zusammenhänge viel einfacher nachvollzogen werden.

Erwartungen brechen, überraschen und Konflikte erzeugen = Aufmerksamkeit

Eine Story sei aber kein altbekanntes „Marketing-Wischi-Waschi“ à la „Wir sind die Größten“ oder „Wir sind ISO-zertifiziert“, so Ettl-Huber. Eine gute Story bestehe aus vier Elementen: einem spannenden Thema, einer mitreißenden Handlung, einer berührenden Figur und finde am besten an einem ansprechenden Ort statt. Damit erreiche man die Leute und schaffe Relevanz. Gleichzeitig gebe man dem Leser die Chance, sich selbst zu identifizieren. Sei diese Selbstidentifizierung erreicht, so habe man schon fast gewonnen.

Die Geschichte habe also schon mal ihren Weg ins Bewusstsein des Menschen gefunden. Die handelnden Figuren einer Story müssen nicht super und unerreichbar sein. Berühmtheiten seien in der Regel deshalb gar keine so guten Identifikationsfiguren. Sie empfahl den Einsatz von Archetypen, die besonders authentisch und dabei noch außerordentlich interessant sein sollen. Bei der ganzen Geschichtenerzählerei solle man es aber nicht übertreiben. Man solle also nicht nur Superlative verwenden und auch der Gebrauch von Ton und Video in Kombination mit Text müsse ausgewogen sein.

Tracking: Essenzielle Kniffe für Google Analytcs

Daniel Herndler von GetOnTop gab viele wichtige Tipps zu Google Analytics. So sprach er im Grundlagen-Track zunächst über die Bounce-Rate, deren Bedeutung noch immer zu viele falsch interpretieren. Dies sei nichts weiter als der Prozentsatz an Besuchern mit nur einem Seitenaufruf. Als Beispiel brachte er den Visit einer Seite zur Suche „Wetter Salzburg“, wobei die Verweildauer natürlich nicht signifikant höher als fünf bis zehn Sekunden sein könne. Dieser kurze Seitenaufruf werde dann standardmäßig als Bounce gewertet und verschlechtere zunächst die Kennzahlen im Dashboard. Aber der Nutzer wisse nach fünf Sekunden, was er wissen wollte, und das sei es ja, worauf es ankomme. Also riet er dazu, eigene Zeiten zu definieren und den Trackingcode um die Javascript-Methode „setTimeout()“ mit einer eigenen Zeitangabe zu erweitern. Bei einem Onepager, also einer Webseite, die nur aus einer Seite bestehe, sei ja laut Standardeinstellung jeder Besuch ein Bounce. Hier empfahl er, mittels Eventtracking die Scrolltiefe zu messen und beispielsweise alle 10 % ein Event auszulösen.

„Bounce-Rate ist nicht gleich Bounce-Rate“; Daniel Herndler

Für die Messung von Conversion-Rates und Abbrüchen solle man eine Trichteranalyse mit Zielvorhaben einrichten. Befinde sich beispielsweise ein CTA außerhalb des sichtbaren Bereichs, verwies er ebenfalls wieder auf die Verknüpfung der Messung in Anbetracht der Scrolltiefe. Ein immer stärker wachsendes Problem, mit dem Google Analytics zu kämpfen habe, sei der Referrer Spam. Viele Webseitenbetreiber freuen sich über steigende Zugriffszahlen, die plötzlich aus dem Nichts auftauchen. Werfe man aber einen Blick auf die Herkunft, so handele es sich meistens um nutzlosen Spamtraffic.

Was aber haben die Trafficspammer davon, vermeintliche Besucher auf eine fremde Webseite zu schleusen? Herndlers Vermutung: Es gehe darum, Traffic zu generieren. Das Kalkül sei, dass Webseitenbetreiber im eigenen Analytics-Konto aus Neugier auf den Trafficverweis klicken. Die Zielseiten verkaufen dann irgendwelche nutzlosen Produkte, Pillen oder zeigen leicht bekleidete Frauen. Um also die tatsächliche Frequentierung auf der Webseite zu messen, solle man zu Filtern greifen und die verweisenden Seiten per Hostnamen „propertyweit“ ausschließen. Vor dem Erstellen neuer Filter solle man aber nicht vergessen, die Datenansicht zu kopieren. Analytics bietet außerdem unter „Einstellung der Datenansicht“ einen eigenen Botfilter, der aber längst nicht alles filtert, was tatsächlich Spam ist.

Zu guter Letzt stellte Daniel Herndler die Bedeutung des Direct Traffics klar. Nicht jeder Direct Traffic sei eine direkte Eingabe der URL in die Adresszeile des Browsers. Das beweist ein Blick auf die Zielseiten des direkten Besucherstroms. So finden sich auch Besucher, die angeblich sofort auf www.beispiel.de/das-tippt-doch-kein-mensch-wirklich-ein-84$5% aufschlagen. Dazu zählen aber auch interne Weiterleitungen von HTTPS auf HTTP und umgekehrt sowie Bookmarks, URL-Shortener oder Klicks aus lokalen Dokumenten.

Das beste Ranking für das beste Ergebnis

Marcus Tandler ging in seiner Keynote auf der SEOkomm auf das sog. Machine Learning und künstliche Intelligenz ein. Dumme Menschen, so Tandler, müssen mindestens so schlau sein wie dumme Maschinen. Eine Herausforderung sei eine wirklich gut funktionierende Sprachsuche. Dabei gehe es nicht darum, die gesprochene Suchphrase eines Menschen textlich zu erkennen. Diese Herausforderung könne mittlerweile als gelöst betrachtet werden. Es gehe darum, die Absicht hinter einer Frage zu verstehen und sie ggf. mit weiteren vorliegenden Informationen über den Fragenden zu ergänzen, um eine optimale Antwort zu finden. Nur dann können Maschinen als „digitale Assistenten“ fungieren, meinte Tandler.

„Wenn du für ein Produkt kein Geld zahlen musst, dann bist du das Produkt“; Marcus Tandler

Google sei bestrebt, nicht die Seite auf Platz eins zu ranken, die das beste SEO mache, sondern die, welche den User als Ergebnis glücklich mache. Hierfür müssen allerdings auch Daten gesammelt werden. Tandler wies auf ein Google-Patent aus dem Jahr 2007 hin, das 2015 veröffentlicht wurde (Abbildung 2). Im Kern geht es darin darum, das algorithmisch errechnete Ranking durch Userklicks entsprechend „nachzujustieren“. Bekomme Platz eins z. B. weniger Klicks, als zu erwarten sei, finde ein Down-Ranking statt und umgekehrt.

Dabei werde natürlich berücksichtigt, wie lange ein User nach einem Klick auf ein Suchergebnis auf der entsprechenden Webseite verweile. Bleibe er eine gewisse Zeit dort (Dwell Time), zähle Google einen sog. „Longclick“ und werte das Ergebnis als gut. Bei sog. „Shortclicks“, also einer Rückkehr nach nur kurzer Zeit, habe ein Suchender wahrscheinlich nichts Passendes für seine Suchintention gefunden. Es finde laut Patent ein sog. „Re-Ranking“ statt. Dabei werde auch unterschieden, ob ein User recht häufig immer auf Platz eins klicke oder sich differenzierter verhalte. Entsprechend mehr oder weniger Gewicht werde seinen Klicks beigemessen.

„Jedes Unternehmen sollte einen Inhouse-SEO haben“; Marcus Tandler

Da es somit auf wirklich gute Inhalte ankomme, solle man sich immer die Frage stellen, ob irgendjemand es bemerke, wenn man eine (einzelne) Webseite aus dem Netz nehme. Schlechte Seiten erzeugen schlechte Signale – und diese können sich im Extremfall sogar auf das Ansehen einer ganzen Domain auswirken. Tandler bestätigte damit die Forderung von Karl Kratz vom Vortag. Auf jeden Fall solle man auf die wichtigen Metriken Dwell Time (Verweildauer bzw. Shortclicks) und die CTR (Click-Trough-Rate) auf Suchergebnisse achten.  

Erlaubnis zum Handeln herstellen

Jens Fauldrath weiß, wovon er spricht. Als ehemaliger und langjähriger Inhouse-SEO bei der Deutschen Telekom kennt er sich mit den Strukturen größerer Unternehmen daher gut aus. Bei SEO-Projekten werde oft vergessen, rechtzeitig zu prüfen, ob man überhaupt etwas verändert dürfe bzw. könne und was. Gerade größere Unternehmen seien oft sehr träge in ihrer Entscheidungsgeschwindigkeit. Daher sei es wichtig, alle Rollen und Verantwortlichkeiten genau zu klären.

Man solle, so sein Rat, alles monitoren und sicherheitshalber wegspeichern, was man gemacht habe. Nicht selten seien beim Einspielen eines neuen Release die SEO-basierten Modifikationen wieder verschwunden bzw. „zurückgesetzt“. Habe man dies nicht explizit unter Überwachung, merke man das ggf. erst dann, wenn die Rankings einbrechen. Fauldrath empfahl, die Daten aus der Google Search Console am besten täglich über die API zu sichern, da diese nur für jeweils die letzten 90 Tage von dort ladbar seien. Die Datenlimits über die API könne man bei Bedarf umgehen, indem man für einzelne Verzeichnisse Accounts einrichte. Dies erhöhe das abrufbare Volumen für größere Sites.

Vorsicht mit neuer Technik, aber keine Angst!

Danny Linden brachte als echter Vollblutentwickler mit seinem Vortrag den Zuhörern einige Technikgrundlagen im Bezug auf OnPage-SEO näher. Aktuell scheuen sich zu viele Webseiten Betreiber davor, neue Technik einzusetzen. Was natürlich auch nachvollziehbar sei, aber gerade im technischen Bereich könne der ein oder andere Vorteil erarbeitet werden, wenn man früher neue Technik implementiert habe als der Wettbewerb. Die Angst vor neuen Technologien könne sich jedoch schnell in Luft auflösen, indem diese vorerst auf einer dem Live-System entsprechenden Testumgebung (genannt „Staging”) ausprobiert werden. Der Gebrauch einer Subdomain sei hierfür ideal. Daraufhin wollte Linden zugleich die Angst vor der folgenden Frage nehmen: „Was, wenn der Crawler mit meiner Seite nicht klarkommt?“ Googles Crawler seien bereits so ausgereift, dass es sich nicht lohne, auf diese Frage einen weiteren Gedanken zu verschwenden, wenn noch weitaus wichtigere Baustellen offen seien.

Der Crawler führe zwar keine Interaktionen wie klicken oder hovern (mit dem Mauszeiger über einem Objekt schweben) etc. aus, rendere aber eine URL inklusive CSS und Javascript. So bestehe kein Unterschied zwischen dem, was ein menschlicher Besucher im Browser sieht, zu jenem, was der Google Bot letztendlich „sieht“.

Es bestehe aktuell kein Grund mehr, auf HTTPS zu verzichten, nicht nur aus der Sicht des Rankingfaktors, sondern auch, weil man früher oder später sowieso nicht drum herumkomme, so Linden. Mit einer späteren Implementierung schaffe man sich nur noch mehr Arbeit, so müssen bei künftiger Umstellung auch alle statischen Links auf einer Webseite manuell von HTTP auf HTTPS aktualisiert werden. Dieser Fall setze natürlich voraus, dass es sich um eine stetig wachsende Seite handele. Das letzte Argument gegen SSL, dass es zu teuer sei, zerschlug Danny Linden ebenfalls. Seit einiger Zeit gebe es immer mehr seriöse Anbieter von kostenlosen SSL-Zertifikaten wie startssl.com oder letsencrypt.org.

Schluss mit der sturen Keyworddenke

Neben all den Rankingfaktoren, anhand derer Google eine URL in den Suchergebnissen positioniere, werde laut Eric Kubitz jene URL von Google ausgewählt, welche eine Suchanfrage mit der höchsten Wahrscheinlichkeit beantworten könne. Daher forderte er ein Ende der Keyworddenke und Schluss mit dem sturen Optimieren auf Schlüsselwörter. Es gelte, sich in die Perspektive eines Suchenden zu versetzen, und statt des stupiden Einsatzes von Keywords im sogenannten „SEO-Text“ solle man sich auf die Beantwortung von Suchanfragen konzentrieren. Hierbei sollen diverse W-Fragen-Tools, wie beispielsweise von Search-One.de, eine große Hilfe sein. Die Optimierung des semantischen Zusammenhangs, Stichwort WDF*IDF, sei hier natürlich nicht außer Acht zu lassen. Im Vordergrund stehe aber die bestmögliche Antwort auf eine Suchanfrage. Die Ansprüche des Users an Content seien nicht das, was Seitenbetreiber ihren Usern vorgeben, sondern das, was die User wissen möchten. Dennoch solle dem Crawler gezeigt werden, worum es auf einer bestimmten Seite gehe. Daher solle Content

  • Suchanfragen von echten Nutzern beantworten,
  • fokussiert und holistisch sein,
  • einzigartig und unvergleichbar gut sein,
  • dem Crawler die Chance geben, den Inhalt zu verstehen.

Neben der klassischen Contentart „Text“ stehen natürlich noch multimediale Inhalte wie Bilder und Videos zur Verfügung. Bei dem Einsatz von Bildern empfahl Kubitz, diese mit möglichst einfachem HTML einzubauen. Dabei solle die Text-Bild-Schere nicht zu weit auseinanderdriften. Also das Bild mit dem richtigen Inhalt an der dazu korrespondierenden Stelle im Text verwenden.

Ein Thema = eine Seite, eine Seite = ein Thema

Für einen strukturierten Aufbau eines guten Textes solle die Headline auf jeden Fall das Thema beinhalten, darauf folge ein knackiger Teaser, der Lust auf mehr machen solle. Zwischenüberschriften verleihen dem Text außerdem Struktur und dienen als Lesehilfe. Bulletpoints sollen immer dann eingesetzt werden, wenn es sich um Aufzählungen oder Daten und Fakten handele. Zu guter Letzt runde ein passendes Fazit jeden Text nochmals ab. Als Leitfaden für die Formulierung bilde ein Gedanke einen Satz. Ein Gedankengang entspräche einem Absatz und eine Bildschirmseite ergebe ein Kapitel.

Einbetten ist nicht klauen, sondern nur verlinken!

So der Kölner Rechtsanwalt Solmecke, den einige womöglich aus seiner Adaption der Werbeplakate der Netflix-Produktion „Better Call Saul“ kennen. Er erklärte, dass das Einbetten eines Videos zum Beispiel kein Diebstahl beziehungsweise Vervielfältigen eines Mediums darstelle, sondern wie eine Verlinkung mit einer Art „Vorschau“ zu vergleichen sei. Würden aber Persönlichkeitsrechte verletzt, sehe die Sache natürlich anders aus. Personen, welche in Videos oder auf Bildern zu erkennen seien und dies nicht möchten, können sich also dagegen wehren. Es gelte aber auch, darauf zu achten, wo der Ursprung der verlinkten Quelle liege. Nur weil ein Video auf YouTube verfügbar sei, bedeute das noch lange nicht, dass der Uploader auch der Urheber dieses Mediums sei. So können auch Videos von der privaten DVD-Sammlung ihren Weg auf die Plattform finden, der Produzent gab aber nie seine Zustimmung für diese Art der Veröffentlichung. Das heißt, es gebe kein wirkliches bedenkenloses „Framing“, also lieber zweimal nachsehen bzw. nachfragen, von welcher Quelle beziehungsweise von welchem YouTube-Account man Inhalte einbette. Als Tipp empfahl Christian Solmecke außerdem, offizielle Widgets von Youtube und Instagram etc. zu verwenden, da diese zudem durch die AGBs des jeweiligen Dienstes abgesichert seien.

Schnell ist nicht schnell genug

Der Pagespeed-Experte Bastian Grimm ging nach einer kleinen Einführung, warum Geschwindigkeit im Web so extrem wichtig ist, auch auf tiefer gehende Facetten des Themas ein. Da nach einer Analyse von Nielsen bekannt sei, dass mittlerweile 40 % der Besucher eine Seite unverrichteter Dinge wieder verlassen, wenn sie länger als drei Sekunden lädt, gebe es auch keinerlei Entschuldigung mehr, sich nicht um Speed zu kümmern.

Anhand einiger Beispiele zeigte er, wie man dem Aufbau einer Seite richtig Beine machen kann. So verwendet Deichmann.com derzeit 23 verschiedene JavaScript- und CSS-Dateien, die allein bereits drei Sekunden Ladezeit verbrauchen.

Der Nutzung des Pagespeed-Tools von Google erteilte er eine persönliche Absage und empfahl, besser webpagetest.org oder sitespeed.io und das dort einstellbare Dashboard als kostenlose Tools zu nutzen.

Grimm wies darauf hin, dass die Reihenfolge des Ladens von Seitenobjekten durchaus Einfluss hat. So könne man durch eine einfache Umsortierung oft bereits nennenswert Zeit einsparen. JavaScript, CSS und Sprites solle man am besten konsolidieren und ggf. kombinieren. Wo immer möglich, helfen auch asynchrone Requests. Die Verwendung von Standardschriftarten helfe ebenfalls. 57 % aller Websites verwenden allerdings Nicht-Standard-Schriften, mit allen negativen Wirkungen auf die Ladegeschwindigkeit. Wer Inhalte von anderen Hostrechnern nutze, habe mit dem sog. DNS Pre-Fetching im Head zum Teil ebenfalls erhebliche Geschwindigkeitsvorteile. Wisse man, wohin ein User navigieren wird, lassen sich sogar ganze Websites zumindest für den Chrome und den aktuellen Edge Browser von Microsoft vorladen (Pre-Fetch und Pre-Render). Da Bilder oft einen großen Teil des Ladevolumens ausmachen, könne man auch über die Verwendung neuer Bildformate wie WebP, FLIF oder BPG nachdenken, empfahl Grimm.

Grundsätzlich solle man sich immer fragen, wie kritisch eine Ressource für den Aufbau der Seite ist. Am besten versuche man immer zunächst, ob das Volumen verringert werden könne, und erst dann sollte optimiert werden.

Analysierst du noch? Oder verstehst du schon?

In seinem Vortrag „Webanalyse für SEOs“ zeigte Marcus Vollmert den Zuhörern, wie es möglich ist, weit mehr als nur 10 % der üblichen Funktionen in Google Analytics zu nutzen. Schaue man sich in Analytics den Traffic einer URL an, werde dieser maximal noch nach den einzelnen Verzeichnisstrukturen gebündelt. Hier geht Vollmert einen Schritt weiter und summiert Contentgruppen anhand von Interessen, wobei er die Seitenhierarchie zunächst völlig außen vor lässt.

Dadurch lassen sich Daten gewinnen, mit deren Hilfe sich Aussagen über das Interesse an gewissen Themenbereichen treffen lassen. Das Ganze solle über den Tag-Manager eingerichtet werden. Contentgruppen sollen aber auch dazu dienen, den Verhaltensfluss von Besucherströmen besser nachzuvollziehen und eine Navigationsanalyse durchzuführen. Da solche Gruppen nicht rückwirkend eingerichtet werden können, solle man möglichst bald damit beginnen.

Jede Seite habe einen gewissen Anteil am Gesamtumsatz, so lassen sich zur besseren Auswertung bestimmte Seitenaufrufe oder Zielvorhaben wie der Download eines Prospekts mit einem virtuellen Zielwert bestimmen. Ein Prospektdownload könne 0,20 € wert sein, ein Newsletter-Abonnent evtl. 1,20 €. Bei der Kalkulation der Werte solle man ganz individuell vorgehen. Je genauer die Werte errechnet seien, umso besser werden die Analysen natürlich am Ende.

Weitergehend empfahl er, Eventtracking einzusetzen. Blogs oder Newsportale haben meist keine wirklichen Events wie einen Download oder mehrere Seitenaufrufe. Dies sei zum Beispiel der Fall, wenn ein Nutzer nur zu einer bestimmten Nachricht aufschlage und nach dem Lesen ohne weitere Interaktion die Seite wieder verlasse. So könne es also hilfreich sein, bestimmte Scrolltiefen mit Events zu versehen. Dies helfe dabei, den Nutzer besser zu verstehen und zu erfahren, wie weit der Artikel gelesen werde. Sprich, mit einem gewissen Spielraum für Interpretationen lassen sich auch Aussagen treffen, wie gut der Content angenommen werde. Mit eingebauten Ereignissen werde Google übrigens signalisiert, dass der Nutzer noch da sei, wenn bei bestimmten Interaktionen Events ausgelöst werden.