Der SEO-DAY in Köln

Mario Fischer
Mario Fischer

Mario Fischer ist Herausgeber und Chefredakteur der Website Boosting und seit der ersten Stunde des Webs von Optimierungsmöglichkeiten fasziniert. Er berät namhafte Unternehmen aller Größen und Branchen und lehrt im neu gegründeten Studiengang E-Commerce an der Hochschule für angewandte Wissenschaften in Würzburg.

Mehr von diesem AutorArtikel als PDF laden

Gute Konferenzen wachsen von Jahr zu Jahr. So auch der SEO-DAY im Kölner Fußballstadion, zu dem dieses Jahr 900 interessierte Besucher pilgerten. Geboten wurde in 39 Vorträgen in drei parallelen Slots ein gelungenes Mischprogramm für jeden Geschmack. Das beherrschende Thema war die von vielen Websitebetreibern als „drohend“ empfundene anstehende Umstellung bei Google auf einen mobilen Index, der so eigentlich gar nicht existiert, noch einige Jahre dauern könnte und gar nicht so bedrohlich ist, wenn man den Ratschlägen der Experten frühzeitig folgt und sich entsprechend vorbereitet. Website Boosting hat sich für Sie dort umgesehen und einige wichtige Informationsrosinen herausgepickt.

Inzwischen verbringen wir laut einer Studie von Comscore vom Mai dieses Jahres mehr Zeit mit mobilen Endgeräten im Web als mit Desktops. Was den vielen derartigen Studien fehlt, ist eine genauere Differenzierung nach den wirklichen Nutzungsmotiven. Wer also alle zehn Minuten seinen Facebook-Account auf Likes oder Kommentare checkt, trägt wohl unbewusst zum mobilen Hype bei – ohne dass dies für eine normale Businessperspektive verwert- oder wirklich nutzbar wäre. Und so tut sich derzeit auch die zuhörende Online-Marketing-Branche auf Konferenzen oft schwer, aus dem Hype nutzbare Ideen herauszulösen, denn die meisten Käufe laufen nach wie vor über den Desktop-Zugang, was auch die o. g. Studie ausweist. Nur etwas mehr als ein Drittel der mobilen Zugriffe gelten dem Handel. Trotzdem wäre es natürlich fatal, die sich ändernden Gewohnheiten deswegen zu ignorieren oder das Nachdenken darüber auf die lange Bank zu schieben.    

Die Art des Endgerätes, mit denen Menschen das Web nutzen, wird tatsächlich immer wichtiger bzw. verändert die Zusammenstellung der Suchergebnisse. Darauf wies Marcus Tober mit seinem Vortrag „Device Matters“ eindringlich hin. Die Besonderheit bei ihm ist wohl, dass er über sein Unternehmen Searchmetrics über einen vergleichsweise großen Datenschatz verfügt und Auswertungen fundierter und datengestützt durchführen kann. Tober zeigte einige Beispiele, bei denen sich je nach Suchphrase die abfragenden Geräte massiv unterscheiden. „Dallas Cowboys“ weist ein Suchvolumen von über 13.000 auf. Allerdings finden diese Suchen nur zu 5 % von Tablets und zu 7 % von Desktops aus statt. Der Rest, 88 %, kommt über Smartphones, so Tober. Nur auf das Suchvolumen zu schielen oder nur auf eine Suchphrase, kann also je nach Ausrichtung und mobiler Fitness fatal sein. Nicht ohne mahnende Worte zeigte Tober, dass kicker.de, eines der bekanntesten Sportmagazine, zwar bei einer Desktopsuche immerhin Position 4 erreicht, aber mit mobiler Abfrage kein Ranking aufweist. Natürlich könnte es sein, dass man dort eher auf eine App setzt. Wenn man aber berücksichtigt, dass 95 % der App-Nutzungszeiten auf nur zehn Apps fallen, müsste man bei Kicker vielleicht nachdenklicher werden, gerade bei einer für so einen Anbieter wichtigen Newsausspielung.

Apropos News. Tober hat mit seinem Team ausgewertet, dass AMP in den Suchergebnissen bei Smartphones mittlerweile derzeit bei 27,6 % läge. Wirkliche Rückschlüsse, dass das AMP-Format im Newsranking bevorzugt würde, darf man daraus natürlich wie immer nicht ableiten, will man nicht den üblichen Fehler machen, durch beobachtbare Korrelationen sofort auf eine vermutete Ursache zu schließen. 

Dass zum Teil tatsächlich mittlerweile über Desktop und Smartphone andere Suchergebnisse und z. T. völlig andere Info-Boxen ausgespielt werden, kann und sollte man wohl öfter mal selbst ausprobieren. Tober verwendete den Suchterm „Undercut Männer“ und zeigte, wie groß die Unterschiede hier sind.

Auch die Anzahl der organischen und traditionell als „Ten blue links“ bezeichneten Ergebnisse bei Suchen weicht mittlerweile ab. So werden bei Suchen über Smartphones im Schnitt noch 9,2 organische Ergebnisse angezeigt. Beim Desktop sind es nur noch 8,8.

„Know your Audience“; Marcus Tober

Wer seine wirkliche „Such“-Zielgruppe nicht kennt bzw. nicht gezielt recherchiert, wird es zunehmend schwerer haben. Tober zeigte beispielhaft Begriffe wie „Kredit Studenten“ oder „Girokonto Jugendliche“, als deren Suchdevice man wahrscheinlich das Smartphone vermuten würde. Dem ist aber nicht so, denn die Suchen kämen fast ausschließlich von Desktops und daher wahrscheinlich von den Eltern, so Tobers Vermutung. Begriffe wie „Kredit für Arbeitslose“, „Kredit ohne Schufa“ oder „Kredit als Azubi“ kommen zu über zwei Dritteln über das Smartphone. Bei „Sofortkredit“ liegt der Anteil sogar bei satten 74 %. Wahrscheinlich suchen Betroffene, wenn ein derartig finanzielles Problem auftritt, sofort mit dem nächstgreifbaren Device nach einer Lösung. Und das ist eben meist das Smartphone. Über harte Daten zu verfügen, ist daher in jedem Fall besser, als Vermutungen anzustellen und dabei ggf. total danebenzuliegen.

Voice Search: Die Frage „Wann ist Vollmond“ wird z. B. als direkte Antwort in einer Infobox in den Suchergebnissen von mondkalender-online.de angezeigt, auf Pos. 1 steht allerdings die augsburger-allemeine.de. Über Google Home erhält man jedoch laut Tober eine Antwort von wann-ist.net. Wie schnell sich das ändern kann, zeigte sich bei einer Überprüfung kurz vor Redaktionsschluss. Dabei wurden Inhalte von mondkalender-online.de vorgelesen. Der Text dabei war: „Vollmond Neumond Finsternis 2017 mit Mondzeichen minutengenau 2017 Mondphase.“ Noch ist nicht alles glänzend und zufriedenstellend, was Google da den Nutzern über die Sprachausgabe zumutet.

Tober testete mit seinem Team Siri, Cortana und Google Home mit 100 unterschiedlichen Fragen. Letzterer Assistent lag mit 38 korrekten Antworten deutlich über denen von Siri (29) und Cortana (23).

Apropos Voice. Gero Wenderholm widmete sich exakt diesem Thema mit seinem Vortrag „Alexa, wir müssen reden!“ Während Steve Balmer, der ehemalige CEO von Microsoft noch vor zehn Jahren der Meinung war, Smartphones (genauer das iPhone) würden sich nicht durchsetzen, werden in US-Haushalten Ende des Jahres ca. 30 Mio. Voice-Assistenten in Gebrauch sein und Siri bekäme mittlerweile ca. 2 Mrd. Anfragen täglich – so Wenderholm. Trotzdem stehen wir seiner Meinung nach erst am Anfang dieser Entwicklung. Er wies darauf hin, dass Sprache vor allem bei Marken deutlich emotionaler wirkt. Die Unternehmen sind darauf aber bisher meist noch nicht vorbereitet, wie Wenderholm mit einigen Beispielen zeigte. Sprachsuchen sind sehr häufig lokal motiviert, hierzu müssten die Einträge bei Google, Bing und Apple Maps optimiert werden, strukturierte Daten, Postleitzahlen, Einträge in Branchenbücher, Bewertungsplattformen und Social Media hinterlegt werden, empfahl der Experte.

„There's no chance that the iPhone is going to get any significant market share. No chance“; Steve Balmer 2007

Bei wem sog. Featured Snippets schon heute in Suchergebnissen angezeigt werden, der sollte diese Textbestandteile für die Erkennung und das Vorlesen optimieren, den diese Inhalte würden mit 90 % bevorzugt vorgelesen. So könne man direkte Frageformulierungen und Suchbegriffe in die mit H(x) (Überschiften) getaggten Abschnitte schreiben, Tabellen integrieren und vor allem – ganz wichtig – die Nennung der Marke und ggf. einen Call-to-Action weit vorne vernünftig mit in den Text einbauen. Den Anbieter von Motorradzubehör, Louis, erwähnte er als suboptimales Beispiel. Dort werde zwar viel Text vorgelesen, weil dort sehr viele How-to-Beiträge hinterlegt sind – die Marke Louis wird aber oft gar nicht oder viel zu spät im Text genannt, von einer direkten Aufforderung, zu interagieren, ganz zu schweigen. Ob und bei welchen ULRs diese Featured Snippets von der eigenen Domain von Google verwendet werden, kann man, so Wenderholms Tipp, in SEO-Tools abrufen. Bei Sistrix z. B. filtert man die Keywords dazu einfach mit Begriffen wie „Wie“, „Warum“ etc. und wählt „Featured Snippets“ als spezielle Anzeige aus.   

Auch die Verwendung des Media-Types „Speech“ unterstützt das Voice-Responsive-Design. Da Menschen Anfragen mit natürlicher Sprache oft als sog. „W-Fragen“ stellen, entsteht noch mehr Notwendigkeit, erklärende Texte auf Webseiten tatsächlich auch wie oben beschrieben mit den ausformulierten Fragen zu verknüpfen. Und warum denn nicht auch Sektionen ausweisen, die für eine Sprachausgabe optimiert sind?

„Das Frageformat wird wichtiger werden. Wichtiger, wichtiger, wichtiger“; Gero Wenderholm

Bastian Grimm widmete seinen Fachvortrag dem derzeit sehr gehypten Thema Mobile-Index first. Dabei räumte er auch gleich mit einigen Missverständnissen auf. Es wird auch weiterhin nur einen Suchindex geben. Die anstehenden Änderungen werden diesmal lt. Google allerdings nicht schrittweise nach Sprachen oder Ländern ausgerollt, sondern global. Für Desktop-Seiten bleibt die Indexierung gleich – wer keine mobile Variante mit einer „m.“-Subdomain hat, wird mit seinen Webseiten also nicht aus dem Index fallen, wie oft befürchtet wird.

Versteckte Inhalte, die erst über eine Useraktion auf der Webseite sichtbar werden wie z. B. eingeklappte Texte, sollen für die mobile Variante das gleiche Gewicht erhalten, was John Müller anschließend (siehe unten) bestätigte. Auf Desktop-Seiten werden diese bekanntlich nicht bzw. weniger stark gewertet. Natürlich kann es bei der Umstellung zu Veränderungen im Desktop-Ranking kommen, wenn die mobile Version grundsätzlich weniger oder vielleicht sogar zu wenig Text hat. In diesen Fällen könnte die Desktop-Variante trotz viel guten Herzblut-Contents aus dem Ranking fallen.

„Zukünftig werdet ihr auf der Basis euer mobilen Seite gerankt“; Bastian Grimm

Eine weitere große Herausforderung ist laut Grimm auch der Linkgraph. Subdomains für mobile Inhalte bzw. überhaupt mobile Inhalte haben in der Regel keine Backlinks, da auf dem Smartphone selten aktiv Links zu anderen Domains gesetzt werden. Und auf dem Desktop bekommt man ja eine andere URL zu sehen.

Grimm stellte auch die wichtige und richtige Frage, was für Google überhaupt „mobile“ ist? Tests ergaben, dass derzeit noch immer mit der Auflösung 1.024 x 768 Pixel, also auf Desktop-Größe, gerendert wird. Da User im Schnitt fünf unterschiedliche Geräte für den Internetzugang nutzen, ist die Verwendung eines sauberen Responsive-Designs mit natürlich dann nur einer URL wohl die beste Strategie – nicht nur aus SEO-Perspektive. Zusätzlich wies Grimm noch darauf hin, dass natürlich auch der PageSpeed künftig beim Übergang auf Mobile first an Bedeutung eher noch zunehmen wird, weil der Speed der Desktop-URL nicht mehr verwendet wird. AMP (beschleunigte mobile Webseiten durch die „Übernahme“ des Hostings durch Google mit stark funktioneller Einschränkung) sah Grimm differenziert und berichtete von diversen Zeitungen, die mit den neuen AMP-Seiten aktuell nur etwa die Hälfte ihres Umsatzes wie vorher machen. Angeblich wurden in den USA bereits Hinweise in Suchergebnissen entdeckt, die mit einer „Slow“-Flagge eine Warnung für Smartphone-Nutzer ausgegeben werden. 

„Es könnte noch vier bis fünf Jahre dauern, bis es einen kompletten Mobile-first-Index geben wird“; Gary Illyes, Google

Als positiv ist zu werten, dass Google wohl plant, Hinweise an Webmaster zu verschicken (über die Search Console), wenn es Probleme beim Übergang auf Mobile first gibt. Läuft aus Sicht der Suchmaschine aber alles gut, gibt es allerdings keinerlei Hinweis, wenn eine Domain umgestellt wurde.

Die Session mit Googles europäischem Sprachrohr für Webmaster, John Müller, war erwartungsgemäß voll. Übervoll. Müller hatte diesmal keine Folien im Gepäck, sondern stand Rede und Antwort auf die vielen Fragen der Teilnehmer.

Müller bestätigte auf Nachfrage nochmals, dass eingeklappter Text auf mobilen Webseiten im Gegensatz zur Desktop-Variante gleich stark zählen wird. Aber eben auch nur dort. Die Umstellung auf Mobile first erfolgt nach seiner Erklärung wie erwähnt domainweise. Es gibt also tatsächlich keinen Stichtag oder einen definierten Zeitraum für die Umstellung. „Warum erfasst man Desktop und Smartphones nicht getrennt, statt es zwangsweise zu verknüpfen?“, wurde Müller gefragt. Wenn man das nicht möchte, solle man keine Verknüpfung zwischen beiden Varianten anlegen, empfahl er als Antwort. Dann würden beide auch getrennt indexiert.

Müller wies auch auf ein häufiges Missverständnis bzgl. des Einsatzes des Canonical-Tags hin (siehe Abbildung 6). Diese Angabe bzw. den Hinweis auf eine „Original“-Variante einer Seite würde eben dann nicht von Google akzeptiert (Fall 2 unten), wenn eine Seite (in der Abb. als „B“ gekennzeichnet) mit einem Canonical-Tag mehr interne Links bekommt als das vermeintliche Original, Seite C. In diesem Fall „überschreibt“ Google die Anweisung und behandelt Seite B als das Original. Das kann durch Unachtsamkeiten bei der internen Verlinkung, insbesondere in Shops mit sog. facettierten Filter-URL, durchaus Probleme bereiten. Wer sich also wundert, warum aus seiner Sicht die falschen Seiten im Suchergebnis auftauchen, sollte auf jeden Fall die interne Verlinkung prüfen.

PageSpeed ist natürlich ein wichtiger Faktor. Aber das Herumoptimieren an der entsprechenden Kennzahl, die ja von 0-100 geht, brächte nichts, erklärte er. Man unterscheide bei Google eher nach „normal schnellen“ und sehr langsamen Webseiten. Speed sei ja auch immer für den Besucher wichtig. Am besten konzentriert man sich daher auf die Dinge, die beim Seitenaufbau die größten Hebel mitbringen, statt die letzten Zahlen in Richtung 100 zu schrauben. Natürlich kam sofort die Nachfrage nach einer Mindestzahl. Müller erklärte daraufhin, dass der bisher von Google ausgewiesene Wert für den PageSpeed wieder abgeschafft würde, weil es so keinen Sinn mache. Ob er von einem Ampelwert oder Ähnlichem abgelöst wird, ließ er offen.

„Was ist eine Mindestzahl für den PageSpeed?“

Die Frage, ob man den Tag-Manager von Google für eine effiziente Steuerung und Optimierung von SEO-relevanten Metatags einsetzen könne, bejahte Müller nicht nur, sondern fand diese Idee sogar gut, um schnell Tests fahren zu können. Zur kurzen Erklärung: In diesem Fall enthält der ursprüngliche HTML-Quellcode z. B. keinen Title, keine Description und auch keine anderen Tags. Die werden erst beim Rendern über den Tag-Manager via JavaScript hinzugefügt. Mit anderen Worten wird der Quelltext durch das bzw. nach dem Abarbeiten von JavaScript komplettiert. Allerdings wies er darauf hin, dass es beim Metatag „index“- bzw. „noindex“-Probleme geben könnte. Denn der Robot holt ja zunächst den ursprünglichen Quellcode und gerendert wird zu einem späteren Zeitpunkt. Enthält der erste Code z. B. ein noindex, das später über den Tag-Manager auf index geändert wird, bekommt das Google vielleicht gar nicht mehr mit, weil wegen der verbietenden Anweisung das spätere Rendering erst gar nicht mehr erfolgt! Im umgekehrten Fall kann es passieren, dass eine Seite zunächst im Index auftaucht und erst später wieder verschwindet, wenn durch den Tag-Manager ein „noindex“ eingefügt wird.  

Der bekannte Rechtsanwalt für Medienrecht, Christian Solmecke, widmete sich den typischen „Fake“-Testseiten, die gerade SEOs und Affiliates gerne als Köder auswerfen. Dabei wird der Eindruck erweckt, es handele sich um einen vergleichenden Produkttest. Der Hintergrund ist, dass viele Konsumenten vor einem Kauf z. B. einer Waschmaschine gezielt Textberichte genereller Art oder auch für spezielle Marken und Typen suchen. Hier grätschen solche Fakeseiten in die Suchergebnisse, in dem sie textlich genau diese Suchphrasen verwenden. In der Regel werden aber natürlich keine eigenen Tests gemacht, sondern von anderen Testergebnissen ab- und umgeschrieben. Nicht selten bleibt am Ende auch nur eine bloße Aufzählung von Produktdetails oder gar automatisiert herüberkopierte Amazon-Bewertungen übrig. Solche sehr ärgerlichen Ergebnisse hatten sicher viele schon auf dem Bildschirm. Solmecke wies nun darauf hin, dass Verbraucherzentralen einige dieser mittlerweile zu großen Portalen angewachsenen Sites abgemahnt und einstweilige Verfügungen erwirkt haben. 

„Ein Vergleich ist kein Test!“; Christinan Solmecke

Wer einen „Test“ offeriert bzw. den Eindruck erweckt, diesen durchgeführt zu haben, muss sicherstellen, dass er

  • neutral
  • objektiv (d. h. ohne finanzielle Vergütung vom Anbieter/Hersteller)
  • sachkundig und
  • transparent

ist. Damit verbieten sich eigentlich auch Affiliate-Links zu dem „getesteten“ Produkt. Konflikte können sich hier mit § 5 und § 6 des Gesetzes gegen unlauteren Wettbewerb ergeben. Hier wird der Verbraucher getäuscht und zu einer (Kauf-)Handlung gebracht, die er ggf. sonst nicht vollzogen hätte. Hersteller können jederzeit auf gerichtlichem Weg verlangen, die Testkriterien und den Ablauf offenzulegen. Wer Affiliate-Links einsetzt, muss diese zwingend mit „Werbung“ oder „Anzeige“ kennzeichnen. Das übliche verbale Ausweichen auf „sponsored“ oder „Affiliate“ ist nicht legal, weil diese Begriffe nicht allen Besuchern bekannt sind. Und mal ehrlich: Man verzichtet hier ja nicht ohne Grund auf eindeutige Hinweise. Wie wirkt ein Test, der mit einem Link zum Kaufen endet, wenn er mit dem Wort Werbung gekennzeichnet ist? Eben – der gesamte Fake funktioniert nicht mehr. Die Folgen von Verstößen können laut Solmecke aber richtig teuer werden, denn es drohen nicht nur Abmahnungen und kostenpflichtige Unterlassungserklärungen, sondern ggf. auch Schadensersatzklagen.

Einige SEO-Hacks für Amazon hatte Dorothea Bakker im Gepäck. Sie empfahl, eigene Marken zu nutzen, falls dies möglich ist. Der Vorteil liegt klar auf der Hand – damit sperrt man den Wettbewerb aus, sofern man die Kontrolle über die Marke(n) behält. Ebenso wie beim klassischen SEO sollte man auch bei Amazon ausführliche Keywordrecherche durchführen. Und nicht nur einmalig, sondern fortlaufend. Dies hilft, geändertes Suchverhalten und neue Begriffe im Auge zu behalten und zu erkennen, ob nachoptimiert werden muss. Ebenso sollte man die Mitbewerber auf diese Weise auf Veränderungen prüfen. Die gesondert dargestellten Bestseller-Rankings, die Königsklasse beim Amazon-SEO, verändern sich immer wieder. Daher erscheint eine permanente Kontrolle durchaus sinnvoll. Eine optimale Produktdarstellung sollte eigentlich selbstverständlich sein. Sehr wichtig dabei sind laut Bakker auch Bilder, von denen es mindestens sieben sein sollten, die sich zoomen lassen. Aktuell ist es bei Amazon noch möglich, die Autovervollständigung bzw. die Suchvorschläge beim Tippen gezielt zu beeinflussen. Wenn genügend Nutzer z. B. nach einem Keyword und gleichzeitig nach einem – dem eigenen – Markenbegriff suchen, erscheint dieser Vorschlag später bei allen Suchen. Wenn die eigenen Mitarbeiter im Unternehmen mitspielen und somit genügend solcher Suchkombinationen eingegeben werden, kann diese Art der „Konditionierung“ durchaus gewisse Vorteile bringen. Für eigene Produkte bzw. die zugehörigen URLs kann man natürlich auch klassisches SEO und Online-Marketing-Maßnahmen einsetzen, um Traffic zu erzeugen.

Wer größere Websites betreibt bzw. viele Seiten bei Google im Index hat, kennt das Problem der begrenzten Datenausgabe der Search Console. Maximal 1.000 Datensätze erhält man für eine Property. Stephan Czysch empfahl für solche Fälle, einfach mehrere Properties anzulegen, z. B. für wichtige Verzeichnisse. Das geht problemlos und ermöglicht dann eben, 1.000 Datensätze pro Verzeichnis über die API zu ziehen. Bei Bedarf kann man diese dann später in einer Tabellenkalkulation oder Datenbank wieder zusammenführen. Czysch empfahl, sich für die Arbeit mit der Search Console das kostenlose Tool „Search Analytics for Sheets“ (https://searchanalyticsforsheets.com) anzusehen. Über diese Erweiterung kann man sich Daten direkt online in ein Google Sheet bzw. Google Drive holen. 

Alles in allem war der SEO-DAY wieder ein herausragendes Highlight mit Top-Speakern, guter thematischer Mischung, in einer außergewöhnlichen Location, dem Kölner Fußballstadion, und mit einem netten Rahmenprogramm.