SEO-Klassentreffen 8.0

Mario Fischer
Mario Fischer

Mario Fischer ist Herausgeber und Chefredakteur der Website Boosting und seit der ersten Stunde des Webs von Optimierungsmöglichkeiten fasziniert. Er berät namhafte Unternehmen aller Größen und Branchen und lehrt im neu gegründeten Studiengang E-Commerce an der Hochschule für angewandte Wissenschaften in Würzburg.

Mehr von diesem AutorArtikel als PDF laden

Wie jedes Jahr im März fand am Berliner Müggelsee wieder die „Unkonferenz“ SEO Campixx statt. Während von Montag bis Freitag in neuer Form die sog. Thementage besucht werden konnten, ging es am Samstag und Sonntag für 570 Teilnehmer in zwölf parallelen Sessions ausschließlich um SEO in allen denkbaren Ausprägungen. Auch diesmal wurde die Campixx ihrem Ruf einer guten Mischung aus Barcamp, professionellen Konferenzbeiträgen, viel Raum für Networking und auch jeder Menge Spaß gerecht. 

Den Anspruch, aus den ca. 120 Vorträgen auch nur annähernd Essenzen ziehen zu können, kann wohl niemand erfüllen. Die Campixx muss man besucht haben, um den Spirit, der dort tatsächlich spürbar ist, zu erleben. Man trifft auf alte und neue Bekannte und für viele Besucher sind die Gespräche unter Experten in den angenehm langen Pausen (weiter so!) ähnlich wichtig und wertvoll wie die Vorträge selbst.
Jonas Weber weiß, wovon er spricht. Er arbeitete vor seiner Selbstständigkeit im Team der Spamfighter. Zwar plaudert er nach wie vor keine direkten Insights aus, aber seine Ratschläge bekommen durch den besonderen Hintergrund natürlich hohes Gewicht in der Community. Er klärte in seinem Vortrag darüber auf, dass nicht jedes Rankingproblem auf den Panda- oder Pinguin-Algorithmen beruhen muss. Wird eine Strafe von Google manuell vergeben, muss auch wieder jemand bei Google eingreifen, um das daraus resultierende Rankingproblem wieder aufzuheben. Mit maschinellen Filtern hat dies rein gar nichts zu tun. Daher nützt es auch nichts, die Domain von echten oder vermeintlichen Verstößen gegen die Richtlinien „zu säubern“ und auf eine (automatische) Besserung zu hoffen. Hier ist ein manueller Antrag (Reconsideration Request) zu stellen.

Es ist aber nicht immer leicht, zwischen algorithmischen und manuellen Strafen zu unterscheiden. Laut Weber hat Google im Jahr 2012 665 Updates für das Ranking eingespielt, also fast zwei pro Tag! Leider werden in der Praxis noch immer zu viele Basisfehler gemacht. Ein großer Shop hatte beispielsweise auf etwa 80.000 € Rankingwert verzichtet, weil alle Kategorieseiten fälschlich mit noindex/nofollow gekennzeichnet wurden. Auch durch den falschen Einsatz des Canonical-Tags wird viel Potenzial verschenkt.

„Nie zu viel auf einmal ändern, z. B. Content + URLs!“

Weber empfahl, auf einer Site nie zu viel auf einmal zu ändern, also z. B. den Content und die URL-Struktur. Google berechne in diesem Fall den Trust der Site komplett neu und das müsse nicht immer zu einem positiveren Ergebnis führen. Ebenso solle man durchaus statt einer zu flachen Sitestruktur bewusst auch Verzeichnisse und/oder Subdomains einsetzen. Der Grund klingt zunächst seltsam: Google könne dann bei Verstößen ggf. besser bestrafen. Soll man es dem Algorithmus oder den Spamfightern also auch noch leicht machen? Eindeutig ja. Denn im Fall der Fälle (ein Verstoß muss ja vorliegen, damit das überhaupt passiert) wird dann eben auch nur gezielt ein einzelnes Verzeichnis oder eine Subdomain mit einem Deranking belegt und nicht die ganze Domain. Wie viele Experten empfahl auch Weber, Seiten mit sog. dünnen Inhalten besser durch einen radikalen Schnitt aus dem Index zu nehmen. Meist kommt dies der Gesamtperformance der Site zugute.

„45 Tools in 45 Minuten.“ Solchen Versprechungen steht man in der Regel wohl eher skeptisch gegenüber. Malte Landwehr löste es aber grandios ein. Schön sauber nach Problemkategorien sortiert gab er Tipps und nannte (oft mehrere) Tools, die bei der Lösung helfen. Wie findet man bequem noch freie Accounts in Social-Media-Plattformen oder checkt, ob eigene Markennamen schon belegt sind? Zum Beispiel über namecheckr.com oder knowem.com. Für mehr Einblicke in die Geschehnisse und die Suche nach thematischen „Influencern“ bei Twitter, Facebook und anderen empfahl Landwehr twitrland.com. Weitere nützliche Tools in diesem Bereich sind mentionmapp.com und followerwonk.com. Beim Autorisieren solcher Tools, die ja auf den eigenen Account zugreifen müssen, um die nötigen Daten zu erhalten, sollte man immer darauf achten, was man dem Anbieter damit erlaubt. Mentionmapp erbittet sich z. B. das Recht, über den Account posten zu dürfen. Erteilt man diese Freigabe, werden unter Umständen die eigenen Follower mit Werbung für das Tool à la „Mario nutzt jetzt ‚XY‘, versuche Du es doch auch“ belästigt. Hier gilt es, den Nutzen des Tools gegen die Freigabe des Kommunikationskanals zu seinen Followern abzuwägen.
Nach Content auf Webseiten kann man über Google suchen. Was aber, wenn man Teile aus dem Quellcode suchen möchte, die eben nicht im Klartext auf der Webseite stehen? Bestimmte Programmiermuster (Footprints) oder eine Affiliate- oder Tracking-Codenummer? Hier kann, so Landwehr, z. B. nerdydata.com oder meanpath.com weiterhelfen. Ein wirklich cooles Tool stellt wirify.com in der Basisversion kostenlos zur Verfügung. Von dort zieht man sich ein Steuerelement in die Symbolleiste des Browsers, der fortan jede beliebige Webseite in ein optisch neutrales Wireframe dekonstruiert. Somit lassen sich u. a. Mitbewerberseiten vom Aufbau her schnell und einfach mit den eigenen vergleichen, ohne dass Inhalte und Farben den Blick auf die eigentliche Struktur beeinflussen können.

Karl Kratz kündigte seinen Vortrag „Feines SEO – Methoden & Praxis“ für Einsteiger an, brachte aber wie immer auch sehr viele gute Gedankenimpulse für Fortgeschrittene. Er appellierte an die Zuhörer, sich mit Webinhalten auf die Kernbedürfnisse einer Bedarfsgruppe zu konzentrieren. Nur so führen deren Handlungswille und -kraft zu einem konkreten Bedürfnis. Die Frage, die man sich stellen muss, lautet:


„Welches Ereignis erzeugt eine Problemstellung, für die unser Angebot die Lösung ist?“


Statt auf Keywords wie „Service für Exchange-Server“ zu setzen (auf die alle anderen buchen), denkt man also über konkrete Ereignisse nach, die bei jemandem in einem Unternehmen auftreten können, das diesen Server einsetzt und das ihn zum Handeln veranlasst. Das können z. B. die Fehlercodes sein, die bei jemandem plötzlich auf dem Bildschirm auftauchen (Err 19:1109), womit derjenige nun tatsächlich ein ultrakonkretes Problem hat – und zwar, weil möglicherweise für das gesamte Unternehmen ab jetzt E-Mail nicht mehr funktioniert. Die erste Reaktion wird aller Wahrscheinlichkeit nach sein, nach der Bedeutung dieses Fehlercodes zu googeln. Hält man statt reiner Sales-Webseiten („Wir sind die Besten“) tatsächlich auch nützliche Seiten bereit, z. B. eben eine Listung der bekannten Fehlercodes und die entsprechende Abhilfe, wird man vom Problem-„Inhaber“ schnell und leicht gefunden. Vielleicht kann er damit sein Problem schon allein lösen. Dann wird er den Anbieter aber nicht nur als kompetent einschätzen, sondern sich möglicherweise sogar für später ein Bookmark setzen. Kann er sein Problem nicht selbst beseitigen, ist man auf jeden Fall dort schon mal als potenzieller Dienstleister auf dem Schirm.

Kratz plädierte weiterhin dafür, nicht immer Google für die einzig relevante Suchmaschine zu halten. Seiner Meinung nach ist Google sogar die schlechteste Suchmaschine für „Spezielles“. In Deutschland gäbe es über 4.000 relevante Suchsysteme. So kann es einem Heilpraktiker durchaus mehr bringen, in jameda gut gefunden zu werden. Vielleicht bringt ihm das in Berlin nur einen einzigen Kunden pro Tag, was aber in diesem Fall sicher völlig ausreichend ist. Auf die sog. Gatekeeper zu optimieren, wird von den meisten Unternehmen durch die starke Konzentration auf Google völlig vergessen.

„Hört auf zu bloggen!“; Karl Kratz

Auch für bloggende Unternehmen hatte Kratz einen wertvollen Tipp zum Nachdenken parat. Er zielte damit auf die übliche Vorgehensweise ab, ständig neue Blogbeiträge zu publizieren, wie es Blogsysteme eigentlich vorsehen. Im Laufe der Zeit verwässern sich nämlich die Topics, weil sie auf immer mehr Seiten verteilt werden. Man solle stattdessen einen Beitrag zu einem speziellen Thema schreiben und diesen dann immer wieder ergänzen. Das hat viele Vorteile:

  • Das Prinzip „Ein Topic pro Webseite“ wird eingehalten und verwirrt die Suchmaschinen nicht mit am Ende 20 oder noch mehr Seiten zum gleichen Thema.
  • Das erneute Hinzufügen von Inhalten zu einem Thema ermöglicht es, immer und immer wieder für dieselbe (!) Seite Hinweise in den sozialen Medien wie Twitter, Facebook oder G+ zu geben. Statt die so erzielte Aufmerksamkeit, Likes, Links und Besuchssignale auf viele Seiten zu verteilen, bekommt eine Seite immer wieder (frischen) Besuch. 
  • Eingehende Links von anderen konzentrieren sich in der Folge auf eine einzige Themaseite und nicht auf mehrere geschriebene Blogbeiträge und damit mehrere URLs. Das bewirkt eine überproportionale Steigerung der Power dieser Seite. 
  • Die eine Seite zum Topic X enthält im Lauf der Zeit immer mehr Content, beleuchtet das Thema aus immer mehr Blickwinkeln und wird irgendwann zum passenden Universaldokument mit allen Long-Tail-Vorteilen für Suchanfragen zu diesem Thema. 

Statt ihn zu zersplittern, sollte man den Content zu einem Thema also besser konzentrieren! Blogsysteme lassen dies problemlos zu. Man muss nur einfach den schon publizierten Beitrag aufrufen und weiter editieren, statt immer wieder auf „new“ zu klicken.

Andreas Graap zeigte 30 außergewöhnliche Linkideen und unter anderem, wie man von huffingtonpost.de, focus.de oder auch von stern.de wertvolle Links einsammeln kann. Aber auch durch eine Bewerbung als Texter bei diversen Unternehmen, die Content gegen Bezahlung erstellen, kann man auf ungewöhnliche Weise zu Backlinks kommen. Noch immer sind offenbar auch die Webverantwortlichen bei Hochschulen dafür bekannt, keinen blassen Schimmer zu haben, was abgehende Links von Hochschuldomains tatsächlich draußen wert sind. Während der Trick mit den meist gefakten Stellenangeboten, die immer gern von Hochschulen oder Fachschaften verlinkt werden, schon seit vielen Jahren bekannt ist, wies Graap darauf hin, dass z. B. die Fernuni Hagen jedem Gast-„Hörer“ auch Webspace zur Verfügung stellt. Selbst Links von Städten sind zum Teil sehr leicht und ganz offiziell zu haben. Graap zeigt als Beispiel eine deutsche Stadt, deren „externe“ Links man bequem online und für wenig Geld buchen könne. Natürlich als Dofollow-Links.

Mit der Zukunft der Suche beschäftigte sich Marcus Tober. Als Gründer und CTO von Searchmetrics hat er recht umfassenden Einblick in und Zugriff auf relevante Daten. Er zeigte anhand einiger (US-)Beispiele, wie zunehmend Suchergebnisse bei Google auftauchen, welche nicht mit den klassischen Methoden optimiert wurden bzw. nicht die relevanten Kriterien hinsichtlich der Keywords erfüllen. Google lerne immer mehr, so Tober, welche Begriffe zu welchen Themen gehören, und liefere Seiten mehr semantisch passend statt nur auf Keyword-Vergleichskriterien aus. Sein Rat lautete, nicht mehr wie früher pro Hauptkeyword eine Seite anzulegen, sondern die Landingpages themenorientiert mit dem Content zu mehreren passenden Keywords zu versehen. Die Einschätzung nicht weniger SEOs, der Content sei zweitrangig, Hauptsache, die Optimierung stimme in technischer Hinsicht, und möglichst viele Backlinks würden das mit dem Ranking schon richten, versah Tober zumindest für die absehbare Zukunft mit einem dicken Fragezeichen. Als Abschlusstipp gab er Webmastern mit auf den Weg, die Altlasten der Vergangenheit einmal sauber zu kontrollieren und wenn nötig auszumisten. Seiner Beobachtung nach ranken Websites deswegen oft schlechter, als sie dies ohne den vergessenen Ballast tun würden.
Für den Kalender: Die nächste SEO Campixx und Campixx-Week finden vom 7. bis 13. März 2016 statt. Weitere Infos unter www.campixx-week.de.