SEO? Haben auch Sie Ihr Potenzial verschenkt?

Sebastian Erlhofer
Sebastian Erlhofer

Sebastian Erlhofer ist begeisterter SEO und Geschäftsführer von mindshape in Köln. Dort arbeiten eine Menge talentierter und motivierter Menschen, die jeden Tag die Köpfe zusammenstecken, wie man Kunden noch mehr begeistern, Rankings noch besser steigern und Websites noch performanter machen kann. Dafür ist er ständig auf der Suche nach neuen Kollegen in Köln und freut sich immer ein Loch in den Bauch, wenn da draußen gutes SEO gemacht wird, weil es schlechtes SEO leider noch immer zu viel gibt.

Mehr von diesem AutorArtikel als PDF laden

Die meisten Websites erfüllen offenbar noch nicht einmal grundlegende Optimierungsmaßnahmen. Die mIndex-Studie 2015 zeigt, dass vor allem im Bereich Crawling und Indexierung einiges im Argen liegt. Damit fehlt das Fundament für weitere Optimierungen und vor allem verschenken Unternehmen enorme Potenziale im Suchmaschinen-Marketing. Die Studie untersuchte dazu über 3.500 Unternehmenswebsites. Was sind aktuell die zentralen Versäumnisse und wie lassen sie sich verhindern und beheben?

In der mIndex-SEO-Studie hatten satte 55 Prozent aller untersuchten Domains keine robots.txt. Das allein ist sicherlich kein Grund, dass irgendwelche Rankings direkt besser oder schlechter ausfallen. Nein, die robots.txt ist definitiv kein Rankingfaktor. Aber wenn man sich die SEO-Praxis anschaut, dann gehören bestimmte Merkmale selbst bei Laien zu einer grundlegenden Suchmaschinenoptimierung einfach mit dazu. Und kein Suchmaschinenoptimierer, ob nun Hobby-Optimierer, Inhouse-SEO, Freelancer oder Agentur, wird bei einem Onpage-Audit vergessen, anfänglich nach der robots.txt zu schauen. Lässt das im Umkehrschluss vermuten, dass für 55 Prozent der untersuchten mittelständischen Unternehmen Suchmaschinenoptimierung entweder keine Rolle spielt, nicht gründlich durchgeführt wurde oder schlichtweg überhaupt nicht als Marketingkanal wahrgenommen wird? Leider finden sich viele andere solcher Faktoren, die – um es positiv zu formulieren - eindeutig zeigen, dass der Mittelstand noch enormes Potenzial im Bereich der organischen Suchmaschinenoptimierung besitzt. Anders ausgedrückt: Der Mittelstand schläft noch im Sachen SEO. Die gute Nachricht an alle ist allerdings, dass selbst grundlegende Optimierungstechniken in bestimmten Branchen dafür sorgen können, dass man für Google bereits deutlich besser aufgestellt ist als die Konkurrenz und damit auch ohne regelmäßige und aufwendige Optimierungsmaßnahmen eine gute Sichtbarkeit generieren kann.

mIndex 2015 – welches Potenzial schlummert in Deutschlands Unternehmenswebsites?

3.513 Unternehmenswebsites aus 15 Branchen wurden in der mindshape-Studie ausgewertet. Auf 33 Seiten vermittelt die Studie einen strukturierten Überblick, wie Deutschlands Unternehmen in Sachen SEO aufgestellt sind und welche Optimierungsmöglichkeiten bisher ungenutzt bleiben. Download unter: goo.gl/EmJRsU.

Die mindshape-SEO-Studie hat sicherlich keine unbekannten Fehlerquellen aufgedeckt, die das große Staunen hervorrufen. Aber viele Punkte sind vor allem eine Bestätigung für das Bauchgefühl, dass jeder erfahrene Suchmaschinenoptimierer, der sich mit der Optimierung mittelständischer Unternehmenswebsites beschäftigt, heutzutage hat: Es mangelt bereits an den wichtigen fundamentalen Optimierungsgrundlagen. Welches sind die häufigsten Fehlerquellen und wie behebt man sie?

Crawlbarkeit

Bevor eine Website oder eine URL in den Google-Index gelangt, muss sie für Suchmaschinen-Crawler zuverlässig technisch verfügbar sein. Die Crawlability stellt dabei gewissermaßen den Grad der Verfügbarkeit dar. Dabei geht es nicht um die bloße Erreichbarkeit des Servers. Klar – wenn der Server stets ausfällt oder überlastet ist, sodass der Crawler die angefragten URLs nicht abrufen kann, dann besteht hier dringender Handlungsbedarf, noch bevor jedwede Optimierungsmaßnahme ergriffen wird. Aber in der Praxis ist die bloße Erreichbarkeit des Servers selten das Problem.

Viel häufiger stimmen die HTTP-Statuscodes auf den untersuchten Servern einfach nicht. Das fällt dem Nutzer beim Surfen kaum auf. Die Website erscheint und alles ist wunderbar. Doch die technisch orientierten Crawler sind sehr sensibel in Bezug auf Statuscodes des Webservers wie 200, 404, 410, 301. Ein häufig anzutreffendes Problem dabei ist, dass eine nicht erreichbare Seite keinen 404-HTTP-Code zurückwirft, sondern einen 200-(OK-)Status. Für Google und Co. ist der 404-Fehler als Rückmeldung das Zeichen, dass die angefragte URL nicht mehr existiert. Noch besser wäre ein gezielter 410-Fehler, der dann sogar signalisiert, dass die URL nie wieder verfügbar sein wird. Google wird diese URL dann nach einer gewissen Zeit aus dem Index löschen und nicht mehr erneut crawlen. Was aber passiert, wenn eine eigentlich nicht mehr erreichbare URL dennoch einen 200-(OK-)Status zurückliefert? Dann denkt Google, dass der Webmaster diese URL noch weiterhin erreichbar halten möchte. Kommt das sehr häufig vor, dann erscheinen diese URLs in der Search Console (vormals Google Webmaster Tools) unter den Soft-404-Fehlern. Manchmal. Leider nicht immer und leider nicht alle. Also sollte man im Rahmen der regelmäßigen SEO-Überprüfungen auf der Website einfach mal selbst den Statuscode anschauen. Dazu einfach F12 im Firefox oder Chrome drücken, den Netzwerkreiter auswählen und beispielsweise www.domain.de/diese-seite-existiert-nicht.html aufrufen. Erscheint hier wie im Beispiel der Status „404 Not Found“ in der ersten Zeile, dann ist alles paletti. Steht hier ein anderer Code, etwa ein 200 (OK), dann sollte man schleunigst die Webserver-Konfiguration anpassen.

Denn ein eigentlich banaler Fehler führt dazu, dass gelöschte URLs nicht aus dem Google-Index verschwinden und immer wieder gecrawlt werden. Damit wird das begrenzte Crawlbudget (also die Anzahl an Dokumenten, die Google variabel pro Domain untersucht) unnötig belastet und die vielen Soft-404-Fehler sind für Google nicht gerade ein Zeichen von hoher Sorgfalt. Schlimmer ist allerdings in diesem Rahmen eine Möglichkeit für eine negative SEO-Attacke, die dafür sorgt, dass der Crawler nahezu keine relevanten Inhalte mehr auf einer Domain aktualisiert oder neu indexiert.

Worst Case: negative SEO-Attacke

Liefert ein Server immer, auch bei nicht existierenden Seiten, einen 200-(OK-)Status zurück, kann man ganz gezielt mit einigen wenigen Tausend neuen eingehenden Links auf unterschiedliche – natürlich nicht existierende – URLs den Crawler über das verfügbare Crawlbudget hin beschäftigen. Was passiert? Google denkt, dass ganz viele neue Inhalte auf einer Domain erscheinen, und versucht, diese neuen URLs zu crawlen. Die liefern ja auch brav immer einen 200-(OK-)Status zurück, sodass Google diese und alle anderen URLs abfragt. Damit ist schnell das Crawlbudget ausgeschöpft und für die eigentlichen Inhalte ist kein Budget mehr übrig. Wichtige Inhalte werden dann über längere Zeit nicht mehr aktualisiert oder indexiert. Das ist allerdings noch der weniger dramatische Fall. Im Extremfall liefern alle künstlich erzeugten URLs immer die gleiche Fehlerseite aus, allerdings eben mit einem 200-(OK-)Status. Der Besucher sieht also wie gewohnt eine Fehlerseite, aber Google erkennt auf der technischen Ebene eine normale Inhaltsseite. Das kann sehr schnell in massive Soft-404-Fehler laufen und bei entsprechend „gut“ gemachtem Negativ-SEO-Angriff auch als Thin Content oder Duplicate Content gewertet werden. Damit rückt dann auch eine gesamte Abstrafung in greifbare Nähe. Das ist sicherlich ein Worst-Case-Szenario. Die Anzahl der negativen SEO-Attacken nimmt allerdings seit Jahren zu und als Suchmaschinenoptimierer sollte man sich auch mit solchen Möglichkeiten aktiv auseinandersetzen. Das bedeutet so oder so: Korrekte HTTP-Statuscodes ausliefern.

sitemap.xml als Hilfe

Die meisten Websites verzeichnen keine Vollindexierung: Es sind nicht alle verfügbaren URLs im Index. Das ist insofern schlecht, weil eine nicht indexierte URL auch nicht gefunden werden kann. Klingt logisch, ist es auch. Über die interne Verlinkung, die Crawler nutzen, um neue URLs auf einer Domain zu finden, scheint es häufig nicht möglich, dass alle URLs entdeckt werden. Das hat unterschiedliche Gründe, die einen eigenen Artikel füllen würden. Um Abhilfe zu schaffen, haben die großen Suchmaschinenbetreiber dafür das sitemap.xml-Protokoll entworfen. Jeder Webmaster hat seit Langem schon die Möglichkeit, alle URLs direkt an die Suchmaschinen in strukturierter Form zu übermitteln. Das geht für HTML-Dokumente, Bilder, Videos und News für Google News. Die Praxis zeigt allerdings, dass erstaunlich wenige Websites überhaupt über eine normale, optimierte URL-XML-Sitemap verfügen. Dabei sollte man vor allem bei älteren, komplexen oder großen Websites auf diese Möglichkeit zurückgreifen. Eine optimale XML-Sitemap wird serverseitig generiert, beispielsweise durch Wordpress oder TYPO3 oder welches CMS gerade auch genutzt wird. Jedes moderne CMS kann das. Dabei kann man dann auch gleichzeitig die Priorität für einzelne Seiten oder Seitenbereiche angeben. Diese „Prio“ reicht von 0 bis 1 und ist absolut relativ innerhalb der einzelnen Website zu sehen. Gute Praxis ist, dass wichtige und häufig zu crawlende Seiten beispielsweise auf 0.8 gestellt werden, weniger zentrale Seiten beispielsweise auf 0.4. Das Aktualisierungsdatum hat hingegen kaum Einfluss auf das Crawling oder die Indexierung.

Für besonders komplexe Domains empfiehlt sich übrigens, mehrere XML-Sitemaps anzulegen. So kann man in einem Shop beispielsweise jede Kategorie in eine XML-Sitemap fassen. Bei Unternehmenswebsites kann man einzelne Inhaltsbereiche nutzen, etwa verschiedene Dienstleistungsbereiche. Die einzelnen XML-Sitemaps werden dann in einer Sitemap-Index-Datei gemeinsam referenziert. Warum sollte man sich die Arbeit machen? Weil man in der Search Console dann viel besser die einzelnen Seitenbereiche auswerten kann. Unter 1.000 URLs in einer Sitemap genau die 20 zu finden, die nicht indexiert sind, ist vergleichsweise schwieriger, als nur unter 50 URLs zu schauen. Und die Ursachenforschung fällt erfahrungsgemäß dann auch wesentlich leichter. Und am Ende rankt nur das, was auch im Index ist. So einfach ist SEO dann doch.

robots.txt – Quell vielen Übels

Die robots.txt regelt den Zugriff der Crawler auf die Website. So weit, so einfach. Ist keine robots.txt vorhanden, dann dürfen die Crawler überall Zugriff haben. In erschreckend vielen Fällen, in denen eine robots.txt vorhanden ist, findet man hier den einen oder anderen Fehler. Was sind die häufigsten Fehler?

Vor ein paar Jahren hat Google die Website-Inhalte nicht gerendert, nur der HTML-Quelltext war wichtig. Mittlerweile schaut sich der Crawler aber gewissermaßen die Website wie ein Mensch an. Dazu müssen alle relevanten Ressourcen wie CSS, JavaScript und Bilder auch für Google erreichbar sein. Vor allem bei Websites, die vor über zwei Jahren erstellt wurden, findet man häufig robots.txt-Einträge, die genau diese Ressourcen blockieren. Das war damals eine gängige Praxis, weil man das Crawlbudget und die Serverressourcen sparen wollte und unnötige Abfragen seitens der Suchmaschinen-Crawler vermieden werden sollten. Heute sind diese Dateien unbedingt freizugeben, damit Google die aktuellen Bewertungsverfahren durchführen kann. Hierzu bietet Google über die Search Console im Bereich „Crawling“ den Bereich „robots.txt-Tester“ an.

Ebenfalls häufig vergessen oder falsch eingebunden ist die Referenz auf die sitemap.xml. Laut der mindshape-Studie findet sich nur in 19 Prozent aller robots.txt-Dateien der Eintrag zur sitemap.xml. Der Eintrag ist keine Pflicht und man kann die Sitemap auch direkt bei Google in der Search Console eintragen. Allerdings lesen auch andere Suchmaschinen wie Bing oder Yahoo! diese Datei und die wenigsten melden die Dateien auch dort manuell an. Viel einfacher ist die zentrale Referenz in der robots.txt. Dabei sollte man dann aber nicht das http:// bzw. https:// vergessen, denn sonst kann der Eintrag nicht korrekt gelesen werden.

Duplicate Content und die böse Noindex-Falle

Als Suchmaschinen-Optimierer beschäftigt man sich spätestens seit den Panda-Updates nicht mehr nur mit der Optimierung, sondern auch mit der Abwendung von Abstrafungen. Der Duplicate Content spielt dabei eine zentrale Rolle. Viele technische Duplicate-Content-Ursachen (vgl. Kasten „Häufige technische Ursachen für Duplicate Content“) werden meist nicht berücksichtigt.

Häufige technische Ursachen für Duplicate Content

Häufig wird Duplicate Content unbeabsichtigt generiert, weil technische Parameter nicht korrekt eingestellt sind. Abhilfe schafft eine entsprechende Konfiguration mit 301-Redirects oder rel=“noindex“.

  • URL erreichbar über www und non-www
  • Gleiche Inhalte über https:// und http:// verfügbar
  • URL aufrufbar mit und ohne Trailing Slash
  • URLs sind mit und ohne Großbuchstaben aufrufbar
  • Sprechende URLs und index.php-URLs sind gleichzeitig im Index
  • Parameter-URLs von Shop-Filtern für Farben, Größen sind indexiert

Doch auch wenn ein Webmaster den Duplicate Content erkannt hat, wird nicht immer richtig gehandelt. Ein Beispiel: Wie würde man ein bestimmtes URL-Schema wie z. B. www.domain.de/de/produkt.html aus dem Index nehmen, weil die eigentlichen deutschsprachigen Inhalte bereits auf der oberen Ebene (www.domain.de/produkt.html) liegen? Klar, ein rel=“noindex“ gesetzt, der Crawler kommt die Tage vorbei und raus ist die URL aus dem Index. Leider scheinen viele Webmaster immer noch gleichzeitig dieses URL-Schema in der robots.txt aufzunehmen. Was dann passiert? Die URL bleibt im Index, weil Google über die robots.txt verboten bekommt, den Inhalt der URL zu lesen – und damit auch nicht sieht, dass mittlerweile ein rel=“noindex“ die Indexierung verbietet.

Der kleine, aber feine Unterschied zwischen Crawling (über die robots.txt gesteuert) und Indexierung (u. a. über rel=“noindex“ geregelt) ist auch erfahrenen SEOs nicht immer bewusst. URLs sollten dann in die robots.txt aufgenommen werden, wenn sie nicht (mehr) im Index sind.

Auch der Canonical kommt beim Beheben von Duplicate-Content-Problemen immer schnell auf den Tisch. Streng genommen ist der Canonical-Einsatz aber der letzte Notnagel. Massive Canonical-Verweise führen schnell zur immensen Belastung des Crawlbudgets, weil Google stets auch die Canonical-tragenden URLs besucht, um festzustellen, ob der Canonical noch vorhanden ist und die URL eventuell wieder indexiert werden soll. Besser also, man versucht, die Ursache gleich im Vorfeld technisch so zu lösen, dass bestimmte Duplicate-Content-Ursachen gar nicht mehr auftreten.

URLs und Pfade schnell entfernen

Eine schnelle Möglichkeit, einzelne URLs oder komplette Verzeichnisse aus dem Index zu nehmen, bietet Google übrigens über die Search Console an. Im Bereich „Google-Index“ ist der Punkt „URLs entfernen“ zu finden.

301er-Ketten

Im Rahmen der mindshape-Studie wurden zahlreiche 301-Redirect-Ketten gefunden. Redirects sind für Suchmaschinen-Optimierer das Mittel der Wahl, um Besuchern und Suchmaschinen mitzuteilen, dass eine alte URL nicht mehr existiert und die Inhalte nun unter einer neuen URL zu finden sind. Google schreibt die Datenbank samt allen Link-Signalen auf die entsprechend neue URL um. So weit, so richtig. Vor allem bei einem Relaunch werden erstaunlicherweise allerdings häufig die 301-Redirects vergessen. Oder noch schlimmer: Es kommt zu 301-Ketten. Eine 301-Weiterleitung verweist wieder auf eine 301-Weiterleitung und so weiter. Google selbst hat nie sicher bestätigt, ob es bei einem 301 zu einem Linkjuice-Verlust kommt. Aber man schwächt durch solche Ketten die Wirkung der Umleitung und verschenkt Potenzial. Man sollte also immer direkt auf die richtige Ziel-URL verlinken. Für sehr viele ähnliche 301-Redirects lässt sich übrigens im Falle eines Apache-Webservers sehr gut die RedirectMatch-Funktion nutzen. Die schont die Webserver-Performance enorm.

Valides HTML? Ein bisschen bitte!

Das Web ist ein Wilder Westen von Quellcode. Auch in der Studien-Stichprobe war kaum eine Domain vollständig W3C-valide. Für eine solide Suchmaschinen-Optimierung ist 100 Prozent valider Quellcode auch gar nicht notwendig. Einige Fehler sind aber dann doch besonders gravierend und sollten behoben werden. So wurden beispielsweise iframe-Tags nicht korrekt eingebunden. Browser und Crawler interpretieren damit den Rest des HTML-Quellcodes als iframe-Inhalt und bewerten diesen einfach nicht. Auch nicht geschlossene H1-Überschriften können eventuell dazu führen, dass unbeabsichtigt alles als Überschrift gewertet wird.

Kurzum: Wenn nicht gerade gravierende Fehler zu finden sind, die die Interpretation der Inhalte verhindern, dann sollten die Ressourcen anderweitig investiert werden. Google und Browser sind mittlerweile sehr fehlertolerant.

Schnell auf Responsive Design umstellen?

Durch die Ankündigung von Google, dass seit dem 21. April 2015 mobile Websites gesondert bewertet werden, gab es einen regelrechten Umstellungswahn bei Website-Betreibern, die noch keine mobiltaugliche Website hatten. Bei der Datenerhebung für die Studie im ersten Quartal waren ganze 85 Prozent aller untersuchten Websites nicht mobiltauglich. Dabei ist eine schnelle und hektische Umstellung gar nicht zwingend erforderlich. Das Google-Update betrifft derzeit ausschließlich die Smartphones – nicht also Tablets oder andere mobile Endgeräte. Insofern sei jedem angeraten, die genauen Zugriffe über Smartphones in Analytics zu betrachten, bevor man voreilig eine schnelle und häufig nicht optimale mobile Lösung aufsetzt. Vor allem viele Unternehmenswebsites sollten besser komplett und für alle Endgeräte optimiert werden, wenn das Verfallsdatum der Website erreicht ist (was übrigens bei Unternehmenswebsites alle drei bis vier Jahre der Fall ist). Hektische Schnellschüsse gehen auch bei Websites oft nach hinten los.

Semantik für Google

Erstaunlich selten werden einfache semantische Markups für Google verwendet. Die großen Suchmaschinen-Betreiber haben eigens mit der schema.org-Spezifikation verschiedene Auszeichnungsmöglichkeiten geschaffen. Rezepte und Veranstaltungen mögen dabei nun sicherlich nicht für jeden infrage kommen. Aber eine Breadcrumb-Navigation mit einem Mikroformat auszuzeichnen, ist meist schnell gemacht und hilft den Suchmaschinen enorm, die Website-Struktur besser zu bewerten. Für Shops bietet sich natürlich die entsprechende Produktauszeichnung an. Etwas komplexer ist die Einbindung von Bewertungen in Form von Testimonials. Viele Unternehmen scheinen hier den Aufwand zu scheuen, Kunden nach Bewertungen zu fragen. Doch neben der Möglichkeit, dass der Eintrag bei Google mit Sternen hervorgehoben wird, sind Testimonials auch eine tolle Möglichkeit, Besuchern zu zeigen, dass aktuelle Kunden zufrieden und glücklich sind (Social Proof).

Content Fehlanzeige

Die mindshape-Studie fand bei den untersuchten Websites meist nur sehr kurze Texte, der Mittelwert liegt bei 218 Wörtern pro URL. Haben die Unternehmen auch hier geschlafen? Content ist doch King und die Entwicklung von Google in den letzten beiden Jahren zeigt deutlich, dass der Focus auch bei der Rankingbewertung verstärkt auf die Inhalte, deren Qualität und Präsentation gelegt wird. Selbst bei technisch neu erstellten und modernen Websites finden sich meist nur schlecht optimierte Inhalte. Woran liegt das? Vermutlich liegt das Problem hier gar nicht so sehr bei der Erkenntnis der Wichtigkeit von Inhalten. Vielmehr ist die Ressource Zeit hier der Engpass. Unternehmen unterschätzen im Rahmen von Website-Relaunches ihren eigenen Geschäftsalltag. Häufig werden aus Kostengründen Text- und Redaktionsarbeiten inhouse gelöst. Das führt dann dazu, dass eine neue Website designtechnisch wunderschön und modern gestaltet wurde und auch alle technischen SEO-Kriterien beachtet wurden. Am Ende fehlt aber im Unternehmen schlichtweg die Zeit für eine Textüberarbeitung und -erweiterung, weil beispielsweise eine wichtige Messe vor der Tür steht (denn für die wurde die Website ja schließlich in Windeseile noch beauftragt). Die Enttäuschung ist dann groß, wenn der erhoffte Rankingboost ausbleibt. Hier liegt die Lösung des Problems also vor allem in einer guten Projekt- und Ressourcenplanung.

Aber längst nicht jeder Marketing-Verantwortliche in Unternehmen ist dafür geeignet, einen guten Text zu verfassen. Ein für Besucher und Suchmaschinen optimierter Text ist definitiv eine Kunst für sich. Die bloße Länge ist dabei nicht zwingend entscheidend. Allerdings bietet die derzeit empfohlene „Optimallänge“ von 800 Wörtern eben deutlich mehr Raum für Qualität. Das ist – allgemein gesprochen – mit 218 Wörtern einfach schwieriger. Die Qualität eines Textes lässt sich dabei übrigens nicht in WDF*IDF ausdrücken. Das ist ein Konzept, das ohnehin im Mittelstand schwer zu vermitteln ist. Denn viel schwerwiegender ist ein grundlegender Denkfehler: Vor allem auf Unternehmenswebsites sollen Inhalte die Fragen und Probleme der Besucher lösen oder zumindest eine Lösung versprechen. Denn schließlich haben die Besucher zuvor genau diese Fragen und Probleme in Google eingegeben und durch einen beherzten ENTER-Druck um eine Lösung gebeten. Schaut man sich die Mehrzahl der Unternehmen an, dann findet man allerdings genau das Gegenteil: Informationen zu „wir über uns“ und die Unternehmensgeschichte leuchten ganz vorn in der Navigation. Unter dem Punkt „Produkte“ finden sich dann meist kurze Texte, die aus Unternehmenssicht die zentralen Features des Produkts oder der Dienstleistung anpreisen. Von Problemlösekompetenz keine Spur. Es muss dabei ja gar nicht immer die komplexe Zielgruppenanalyse sein, die in Anne, Arne, Bärbel oder sonstige Persona-Ungetüme einfließt. Wenn man einfach die dringlichsten Probleme seiner Zielgruppe niederschreibt und darauf Antworten und Lösungen gibt, dann hat man meist automatisch qualitativ hochwertige Texte mit niedrigen Absprungraten, passender WDF*IDF-Kurve und semantisch optimalen Begriffen.

Wenn man es dann noch schafft, die Textwüsten zu begrünen, dann steht meist einer deutlichen Trafficsteigerung über Google nichts mehr im Weg. Auch viele lange und gute Texte lassen wichtige Zwischenüberschriften vermissen. Diese helfen den Lesern beim Scannen des Textes und dem Finden für den Leser relevanter Abschnitte. Auch in Sachen Textdesign besteht meist noch Bedarf: Fließtexte lassen sich optisch und inhaltlich durch ein modulares Design aufwerten: Infokästchen, Aufzählungen, Grafiken, Bildergalerien und sonstige modulare Auslagerungen reichern den Text optisch an und erhöhen die Informationsqualität. Das sind letztlich auch einfache Signale, die Google und Co. dankbar auswerten können.

Links, Links, Links

Trotz aller Bemühungen seitens Google, die Website-Inhalte und deren Qualität besser einschätzen zu können, ist und bleibt der Google-Algorithmus zu starken Teilen linkbasiert. Die kurze Historie der Suchmaschinen-Optimierung scheint vor allem einer Grundregel zu folgen: Eingehende Verweise zu generieren wird immer aufwendiger und damit teurer. Nicht ohne Grund gilt das aktive Linkbuilding – nicht in Form von Linkkauf, sondern in der ursprünglichen Form von Online-PR – als Königsdisziplin in der Suchmaschinen-Optimierung. Letztlich entscheidet hier dann häufig die Höhe des Budgeteinsatzes über die Qualität und Quantität der Links. Dabei werden oft auch im Offpage-Bereich die Grundlagen übergangen und damit der Wirkungsgrad nicht optimal ausgenutzt. Wertige Linkmöglichkeiten ergeben sich nicht durch den Kauf in einem Blog-Netzwerk oder durch veraltete Agenturverträge mit einer fest definierten monatlichen Linkanzahl. Vielmehr sind es Ergebnisse interner Abstimmungen beispielsweise mit der Personalabteilung bei ohnehin durchgeführten Stellenausschreibungen, Kooperationen mit Partnern und Lieferanten oder vielleicht auch die Trikots der Fußballmannschaft im Ort, die zu Erwähnungen und Links führen. Sicher – das ist endlich und für stark umkämpfte Branchen schwer möglich. Aber die meisten Unternehmen schöpfen diese grundlegenden Quellen nicht aus. Das sollten sie allerdings, bevor sie nichts tun. Für aufwendiges Content-Marketing ist dann immer noch Zeit.

Stille Reserven bergen unheimliches Potenzial

Die mindshape-Studie belegt in harten Zahlen, was jeder SEO, der für Kunden im Mittelstand arbeitet, als begründetes Bauchgefühl hat: Viele Unternehmen könnten mit vergleichsweise einfachen Mitteln deutlich mehr Sichtbarkeit in den organischen Suchergebnisseiten erreichen. Für bestimmte untersuchte Branchen und Unternehmen mag der Kanal Suchmaschinen-Optimierung oder Online-Marketing generell nicht zweckdienlich sein. Aber das Suchverhalten von Konsumenten und Kunden wird sich nicht mehr wegbewegen von digitalen Suchhelfern. Ob sie nun Google, Siri, Google Now heißen – zukünftige Kunden suchen im Internet nach einer Lösung für ihre Probleme und nach Anbietern, die diese lösen. Dabei gefunden zu werden, wird immer wichtiger. Und ein solides Fundament für die Suchmaschinen und jedwede Optimierung gehört damit zur Grundausstattung eines erfolgreichen Unternehmens.