10 Jahre SEO Campixx!

Mario Fischer
Mario Fischer

Mario Fischer ist Herausgeber und Chefredakteur der Website Boosting und seit der ersten Stunde des Webs von Optimierungsmöglichkeiten fasziniert. Er berät namhafte Unternehmen aller Größen und Branchen und lehrt im neu gegründeten Studiengang E-Commerce an der Hochschule für angewandte Wissenschaften in Würzburg.

Mehr von diesem AutorArtikel als PDF laden

Ganze zehn Jahre ist es seit der ersten SEO Campixx in Berlin her. Aus einer Idee, eine „Unkonferenz“ für SEOs im heimeligen Umfeld zu machen, wurde eine stabile und bestens organisierte Dauerveranstaltung am Müggelsee. Fast 120 Vorträge machten die Auswahl wie immer besonders schwer und boten fast alle fachlichen Facetten in unterschiedlicher Tiefe. Auch wenn dieses Jahr wegen des früheren Zeitpunkts, der Kälte und der Grippe die Anzahl der krankheitsbedingten Ausfälle etwas höher war, fanden sich dennoch 580 Teilnehmerinnen und Teilnehmer ein. Während die Konferenz in früheren Jahren traditionell am Wochenende stattfand, lag sie diesmal etwas familienfreundlicher unter der Woche.
Website Boosting sah sich wie immer für Sie um und brachte rein subjektiv einige Informationsperlen mit.

Der Veranstalter, Marco Jank, kann tatsächlich sehr stolz auf sich und sein Team sein. Auch nach zehn Jahren hat die SEO Campixx trotz des Wachstums nichts an Charme und inhaltlicher Ausgewogenheit verloren. Der Wohlfühlfaktor abseits der Vorträge und vor allem die Möglichkeiten zum ausgiebigen Networken waren durch die großzügigen Pausen nach jedem Vortrag und das bunte Rahmenprogramm wieder sehr hoch.

Auch Texte haben Emotionen

Den Eröffnungsvortrag hielt Roland Kahlert, der die Ergebnisse seiner Masterarbeit mit dem Schwerpunkt Data Science vorstellte. Er nahm sich vor, eine Erkennungslogik für Emotionen in Texten auf Basis des Machine Learnings zu entwickeln. Da ihm keine Referenzdaten vorlagen, bediente er sich der Bewertungsbuttons bei Facebook, also des likenden Daumens, des Herzens und der lachenden, erstaunten, traurigen und wütenden Smileys. Über die Graph-API von Facebook wertete er so die publizierten Artikel von sechs Zeitungen mit den dafür bei Facebook von Usern gewählten Feedbacks aus. Als Werkzeug für die linguistische Analyse verwendete er u. a. Python mit spaCy als Bibliothek für die Erkennung von Abhängigkeiten und die sog. „Named Entity Recognition“ und Word2Vec von Google. Damit versuchte er, über Trainingsdaten ein Vorhersagemodell zu erstellen. Die geringsten Fehler erzeugte dabei nach seiner Analyse das „Text-Bag-of-Words-Tf-ldf“-Verfahren (für Interessierte: einfach.st/bowtf). Aber auch alle anderen untersuchten Verfahren blieben mit den Fehlern unter der Referenzlinie, so Kahlert. Echte Ergebnisse bzw. Anwendungsmöglichkeiten blieb er zwar schuldig, stellte aber mit dem sogenannten „Semantic Folding“ sein nächstes Projekt vor. Damit soll es gelingen, Themen in Texten sogar sprachübergreifend zu identifizieren.

Bilder-SEO 2018

Bekanntlich wird Google durch den Einsatz künstlicher Intelligenz immer besser bei der inhaltlichen Erkennung von Bildern. Bild-Rankingexperte Martin Mißfeldt stellte die neuen Rankingfaktoren für Bilder-SEO vor und plauderte dabei wie immer nicht nur aus seinem Nähkästchen, sondern zeigte ganz offen Zahlen, Daten und Fakten seiner eigenen Websites. Und einem Menschen, der davon lebt, über ein gutes Ranking hauptsächlich seiner Bilder genügend Traffic zu generieren, dem sollte man gut zuhören. Auf seiner erst Mitte Januar gestarteten Site „Blutwert.net“ sammeln sich bereits nahezu 200 Besucher pro Tag und in einem Jahr sollen es schon 5.000 sein. Und das prinzipiell nur über Bilder. Früher konnte es schon mal mehrere Wochen oder Monate dauern, so Mißfeldt, bis neue Bilder in der Suche bei Google auftauchten. Das hängt damit zusammen, dass der Googlebot selbst zwar schnell neue Seiten crawlt, die Bild-URL aber über einen Zwischenspeicher dem Bild-Bot überlässt. Eine Analyse kann erst stattfinden, wenn dieser das Bild abgeholt und zur Verarbeitung weitergereicht hat. Mittlerweile wurde dieser Vorgang aber deutlich beschleunigt, sodass sich hier ein gut bespielbares SEO-Feld auftut.

„Google indexiert nicht DEIN Bild, sondern DAS Bild!“; Martin Mißfeldt

Besonders wichtig ist es zu wissen, so Mißfeldt weiter, dass Google nicht das Bild zu einer URL ablegt, sondern eigenständig „ein“ Bild mit einem Bezug zur URL. Das Bild wird also zu einem eigenen Objekt, zum Meta-Bild. Taucht es auf mehreren Webseiten oder Websites auf, werden alle URLs dazugespeichert. Nur bei nennenswerten inhaltlichen Abweichungen entscheidet ein Algorithmus, ob tatsächlich eine neue „Karteikarte“ für ein neues Bild angelegt wird.

Bekanntermaßen sind ein sprechender Dateiname eines Bildes, der Alt-Text, und auch die Bildunterschrift (im Quelltext möglichst nah am Bildverweis) besonders wichtig. Aber auch sog. Exif-Daten können hier helfen, die man mit Tools den Bildern als Metadaten hinzufügen kann. Moderne Kameras setzen zu diesen z. T. bereits z. B. Geo-Daten der Aufnahme hinzu. Pro Bild lässt sich so ein Keyword viermal unterbringen, ohne irgendeinen Spamverdacht zu erregen. Bei längeren Seiten oder sog. Onepagern kann man diese Zahl problemlos mehr als verzehnfachen. Und eigene, gute Bilder erzeugen oft mehr Einzigartigkeit als Text, der sich häufig ähnlich noch auf anderen Webseiten befindet. Findet man die richtigen Themen bzw. Keywords, ist über Bilder nach Meinung von Mißfeldt einfacher ein gutes Ranking zu erreichen und damit sind schneller echte Besucher auf die Seite zu bringen. Dies erzeugt Glaubwürdigkeit und meist folgen schnell auch Backlinks. Und natürlich werden so auch bereits sehr gute Usersignale an Google gesendet. Dies kann dann auch eine Verbesserung beim „normalen“ Ranking der Seite nach sich ziehen.

„Bilder stärken die Keyword-Relevanz einer Seite“; Martin Mißfeldt

Mißfeldt gab den Zuhörern noch als Tipp mit auf den Weg, alle eigenen Bilder sauber und übersichtlich zu verwalten. Für das Web erzeugt man jeweils drei Versionen: klein für eine Vorschau bzw. Thumbnails, mittel für die eigentliche Darstellung und eine große, hochauflösende Version zur Vergrößerung. Ein Ordnungssystem erleichtert den Mehrfachgebrauch enorm, sodass man durch Bearbeitungen und die damit entstehenden weiteren Bilder viel Zeit und Geld sparen kann. Eigene Bilder solle man möglichst mehrfach nutzen, denn Kopien bzw. unterschiedliche Versionen sind nach seiner Meinung ein wichtiger Rankingfaktor. Während man Elemente auf einer Webseite problemlos verändern kann, gilt das für Bilder nicht. Ein einmal publiziertes Bild wird gewertet, wie es ist. Veränderungen am Bild führen allenfalls dazu, dass es als neues Bild aufgenommen wird. „On-Picture“ ist also unveränderlich, erklärte Mißfeldt. Der Bewertungsalgorithmus greift immer auf das zuerst erzeugte Meta-Bild zu.

Wer Stockfotos verwendet, dem empfahl Mißfeldt, nicht in der Stichwortsuche der Anbieter zu suchen, sondern direkt bei Google. Dazu verwendet man in der Bildersuche den „Site“-Parameter (Abbildung 6, Ziffer 1, gelb markiert), gefolgt von einem Leerzeichen und dann dem gewünschten Keyword (Ziffer 2, blau markiert). Google wirft nun, bezogen auf diese Domain („site:“), das aus algorithmischer Sicht bereits beste Bild aus. Dies sollte man dann ggf. auch verwenden, da bei Google bereits eine Historie und der „beste“ Keyword-Bild-Zusammenhang ermittelt wurden. In der Stichwortsuche des Anbieters nach „Smartwatch“ wird dieses Bild übrigens nicht einmal auf der ersten Seite ausgegeben. Das ist auch klar, weil dort ganz andere, eigene Gewichtungskriterien angelegt wurden. Die Auswahl über Google vorzunehmen, ist also tatsächlich ein echter Power-Tipp!

Natürlich entscheiden auch andere Aspekte bei der Bildauswahl – wenn es aber eher um SEO geht, erscheint diese Vorgehensweise nicht verkehrt. Wer tiefer in das Thema Bilder-SEO einsteigen möchte, findet in dieser Ausgabe eine Rezension des neuen E-Books von Martin Mißfeldt, das übrigens auch von John Müller von Google empfohlen wird.

Diversifikation als Chance auf die Top 10

Jonas Weber visualisierte in seinem Beitrag die Wichtigkeit von Nischen beim SEO. Viele betrachten oft nur die Websites großer Unternehmen und versuchen, von denen „abzuschauen“. Natürlich kann man davon (manchmal) lernen, aber man fokussiert sich dann allzu leicht auf deren Keywords, für die zu ranken eben auch sehr, sehr anspruchsvoll sein kann. Würden Aliens die Erde beobachten und die Läden analysieren, kämen sie wahrscheinlich ohne weitere Informationen zu dem Eindruck, man müsse Fielmann sein, um einen Platz in der Fußgängerzone zu bekommen. Weber empfahl dringend, diese Strategie einer sog. Copy Cat zu verwerfen. Man sollte tunlichst kein Businessmodell auf Basis der Rankings anderer Unternehmen aufbauen, sie also nicht einfach zu kopieren versuchen. Dies proklamiert die moderne Betriebswirtschaft im Hinblick auf ein aktives Innovationsmanagement schon seit über dreißig Jahren (siehe z. B. Porter oder Pfeiffer), aber bei vielen Online-Marketers scheint sich das noch immer nicht richtig herumgesprochen zu haben. Wer kopiert, kann bestenfalls aufholen, aber niemals einholen.

„Du musst Fielmann sein, um in die Fußgängerzone zu kommen – ein falscher Rückschluss“; Jonas Weber

Man müsse sehr viel mehr auf die unterschiedlichen Absichten der Suchenden eingehen und ggf. stärker diversifizieren. Google zeige, so Weber, auch gerne unterschiedliche Arten von Suchergebnissen, um die Suchenden bestens zu bedienen. In Abbildung 9 lässt sich dies beispielhaft für den Suchbegriff „Kreditkarte“ erkennen. Hier gilt es zu hinterfragen, für welche der vielen Suchintentionen man eine Landingpage baut. Die einfachste Unterscheidung der Suchintention bzw. die erste Ebene stellt dabei die bekannte Aufteilung in „informativ“, „transaktional“ und „navigational“ dar. Als gut verständliches Beispiel zeigte Weber, wie unterschiedlich die Suchergebnisse bei „USP“ bei Google in der Text- und dazu verglichen in der Bildersuche sind. Die normale Suche wirft als Top-Ergebnisse ausschließlich Websites aus, die sich auf das „Alleinstellungsmerkmal“, also den USP konzentrieren. Die Bildersuche bringt zu USP fast ausschließlich Waffen zum Vorschein. Das ist kein Fehler, sondern die im Laufe der Jahre gewonnene maschinelle Erkenntnis der Suchmaschine, dass hier unterschiedliche Suchabsichten vorliegen.

Allerdings kümmern sich Unternehmen derzeit zum Teil offenbar noch immer nicht um die einfachsten Basics der Suchmaschinenoptimierung. So führt Visa den Begriff „Kreditkarte“ gar nicht auf der Startseite und das weder sichtbar noch im Quellcode, wie Abbildung 10 zeigt.

Man muss daher seinen „Marktplatz“ gut kennen und für wichtige Suchbegriffe eben auch das Umfeld und die bereits bei Google vertretenen bzw. befriedigten Suchintentionen berücksichtigen. Dazu schlug Weber vor, vernünftige Wettbewerbsanalysen zu erstellen und für jeden Top-10-Treffer OnPage- und Contentsignale zu analysieren, aber auch die Linkreputation, Nutzersignale und deren Intention. Als Beispiel zeigte er u. a. Ladenzeile.de, wo man mit sehr viel weniger indizierten Seiten (~100 Tsd. zu > 7 Mio.) und sehr viel weniger Domain-Backlinks (2 Tsd. zu 14 Tsd.) gegenüber idealo.de 2015 in etwa den gleichen errechneten SEO-Wert auf Basis von AdWords-Preisen erwirtschaftete und zum Teil mit einzelnen URLs für Tausende von Keywords rankt.

Seine Botschaft war, dass sich mehr Seiten den PageRank (grob: Googles „Wichtigkeitsmaß“, das iterativ über eingehende Links berechnet wird) untereinander teilen müssen und damit in Summe schwächer sind. Ausmisten, lautet die Devise, die man immer wieder auf Konferenzen von Experten hört. Nicht benötigte oder besuchte Seiten können und sollten ersatzlos gelöscht werden (Weiterleitung nicht vergessen). Meist honoriert Google das mit einem Anstieg der bereits vorhandenen Rankings.

„Glaubt mir, den PageRank gibt es immer noch“; Jonas Weber

Content: Failure is predictiable

Thomas Midnich crawlt nach eigenen Angaben seit 2012 regelmäßig das komplette deutsche Web und verwendet die Daten für sein Tool und entsprechende Analysen.

Auch er bestätigte, was Jonas Weber postuliert hatte: Wer den User Intent nicht entsprechend berücksichtigt, hat heute keine Chance auf Top-Rankings mehr. Und wer seine Besucher nicht glücklich macht, indem er sie mit gutem Content versorgt, braucht gar nicht erst anzutreten. Für die unterschiedlichen Informationsabsichten verwendet Google heute verschiedene Algorithmen, so Midnich. Man sollte niemals unterschiedliche „Intents“ in einem Dokument mischen. Die Suchabsicht ist also weit wichtiger als die bloße Reichweite der Keywords, auf die häufig noch fleißig geschielt wird.

Wir verkaufen individuelle Humidore für Zigarren. Unsere individuellen Humidore für Zigarren sind handgemacht. Wenn Sie einen individuellen Humidor für Zigarren kaufen möchten, wenden Sie sich an unsere Spezialisten für individuelle Humidore für Zigarren unter individuelle.humidore.zigarren@example.com.“ Dieser Beispieltext aus den Richtlinien von Google zeigt, wie man Texte eben nicht erstellen sollte (http://einfach.st/gwrl).

„Heute brauchst du ein Dokument, das zum User Intent passt“; Thomas Midnich

Eine Suchmaschine baut auf den Prinzipien des Information Retrieval auf und diese Prinzipien sind natürlich keine Geheimwissenschaften. Die Relevanz und die Nähe von Worten zueinander wird u. a. durch sog. Vector-Space-Modelle und die bekannte TF-IDF-Formel ermittelt. Die Relevanz für Terme ist umso höher, je häufiger sie im Dokument vorkommen, aber umso kleiner, je häufiger sie in allen anderen Dokumenten vorkommen. Wenn z. B. ein Dokument mit „Sonnenbrand“, „Hauttyp“, „Haut“, Hautkrebs“ und „Blasenbildung“ ranken soll, sollten diese tunlichst auch die höchsten TF-IDF-Werte haben. Beim unüberlegten Storytelling können sich hier natürlich häufig Spannungen ergeben, so Midnich. Und natürlich sollten sich die wichtigen Begriffe auch im sog. Main-Content finden, denn deren Gewichtung im Wortvektor hängt auch davon ab, welche Dokument-Elemente (z. B. Title, Menü, Teaser, Footer, Sidebar, Main-Content) betrachtet werden.

Midnich nannte als wichtige Metrik für die Suchqualität die sog. „Search Task Completion“: Wie wahrscheinlich ist es, dass die zehn Ergebnisse die Informationsbedürfnisse eines Suchenden komplett befriedigen können? Wenn hier noch etwas fehlt, könnte das die Lücke sein, die man dann viel leichter füllen kann, als eine andere bereits gut passende Antwortkategorie verdrängen zu wollen.

Zur Unterstützung erstellt man sich am besten eine Feature Map mit Themen bzw. Suchbegriffen, die anschließend zu den unterschiedlichen Suchintentionen geclustert werden. Damit fällt es leichter, für ein Dokument eine sinnvolle Auswahl zu eben diesen Feature-Abdeckungen entsprechend den Bedürfnissen der Suchenden und den eigenen Zielen zu treffen.

SEOs selbst ausbilden

Traditionell geht es auf der SEO Campixx nicht immer nur um Algorithmen, sondern auch um flankierende Themen. Eines davon ist die Aus- und Weiterbildung. Der Arbeitsmarkt ist bekanntermaßen leer und gutes Personal ist schwer zu finden. Da die meisten Hochschulen und andere Institutionen hier noch immer schwächeln oder aus dem Boom heraus eher zweifelhafte Schulungsangebote anbieten, bleibt oft nur die eigene Ausbildung. Nicole Mank hielt zu diesem Thema einen leidenschaftlichen Vortrag, wie man die Ausbildung von SEO-Trainees gestalten kann. Hierbei ging sie besonders auf die neuen Herausforderungen im Markt ein und zeigte den Lehrplan, der in ihrer Agentur zur Ausbildung entwickelt wurde. Bei der Auswahl solle man unbedingt auf eine passende Persönlichkeit achten und diese den einzelnen Bereichen (Technik, Kreation, Datenanalyse etc.) zuordnen. Vor allem die Freizeitgestaltung der Bewerber hilft laut Mank enorm bei dieser Einschätzung. Alles andere kann man lernen. Natürlich und insbesondere müssen auch der Spirit und die Kultur in einem Unternehmen passen. In muffigen Büroräumen wird man stark motivierte Bewerber schwerlich halten können. Externe Speaker sollten dabei zum festen Ausbildungsprogramm gehören, nicht nur der Abwechslung wegen.

Nach etwa einem Dreivierteljahr sollten Trainees einen Test absolvieren, der ihre Qualifikationen für den aktuellen Arbeitsmarkt konsolidiert oder aber neue Ansatzpunkte zur Fortbildung und ggf. für Spezialisierungen aufzeigt. Nach etwa einem Jahr können dann erste kleinere Kundenprojekte übergeben werden, die über ein Buddysystem (feste Zuordnung eines erfahrenen Beraters) abgesichert werden.

Fazit

Bisher lohnte sich der Besuch des alljährlichen „Klassentreffens“ der SEOs in Berlin noch immer. Und so war es auch in diesem Jahr. Die Mischung der Themen hält für jeden etwas bereit, sodass niemand ohne genügend Wissen und/oder gute Ideen im Gepäck den Heimweg antreten muss. Als sehr gut erwies sich abermals das großzügige Pausenkonzept. Statt von Vortrag zu Vortrag zu hetzen, findet man genügend zeitlichen Raum für tiefer gehende Gespräche mit Referenten und Teilnehmern, für Erfahrungsaustausch und zum Knüpfen wichtiger Kontakte, die über ein oberflächliches Hallo-was-machst-Du-so deutlich hinausgehen können.

Weitere Infos unter www.campixx.de/seo-campixx/