SEO-Klassentreffen

Mario Fischer
Mario Fischer

Mario Fischer ist Herausgeber und Chefredakteur der Website Boosting und seit der ersten Stunde des Webs von Optimierungsmöglichkeiten fasziniert. Er berät namhafte Unternehmen aller Größen und Branchen und lehrt im neu gegründeten Studiengang E-Commerce an der Hochschule für angewandte Wissenschaften in Würzburg.

Mehr von diesem AutorArtikel als PDF laden

Am 12. und 13. März dieses Jahres traf sich nun mittlerweile zum dritten Mal die SEO-Gemeinde auf der SEOCampixx im Tagungszentrum in Berlin am Müggelsee. Auf dieser „Unkonferenz“ waren praktisch nur Suchmaschinenoptimierer anwesend, keine Kunden, niemand, der beeindruckt werden musste – eine entspannte Atmosphäre also. Und nicht nur dieser Umstand sorgte für einen regen Informationsaustausch …

Die Karten waren vorab wie immer sehr begehrt und viel zu schnell ausverkauft. Insgesamt waren laut Veranstalter Marco Janck von Sumago (auch als Seonaut) 470 Teilnehmer registriert und die meisten davon tatsächlich auch vor Ort. Der Veranstalter hatte sich diesmal eine gute Charityaktion einfallen lassen. Für jeden Teilnehmer wurden 20,- Euro an „Rettet den Regenwald e. V.“ gespendet. Zusammen mit Sponsorenbeiträgen konnten somit rund 11.000 Euro eingesammelt werden.

Das Programm lief über zwei Tage und jeweils an 12 (in Worten: Zwölf!) Sessions gleichzeitig. Die Auswahl, welchen der weit über hundert Workshops man nun letztlich besucht, war wohl eine der größten Qualen der Teilnehmer. Zu Beginn der Campixx lernten die anwesenden SEO dann aber erst einmal, wie man richtig trommelt – in diesem Fall allerdings real und nicht, wie man dies beim Kunden hinsichtlich der eigenen Leistungsfähigkeit tut. Dazu wurden unterschiedliche Arten von Trommeln ausgeteilt und bereits nach einer kurzen Einführungszeit dröhnten laute, aber durchaus anhörbare Rhythmen durch den großen Saal.

Florian Stelzner sorgte mit seiner Show „Wer wird SEOnär?“ für kurzweilige Unterhaltung. Die Teilnehmer mussten Fragen rund um das Thema Suchmaschinen beantworten, wie z. B. das Google-Ergebnis für “the answer to life
the universe and everything” lautet? 42! (wer das Buch „Per Anhalter durch die Galaxis kennt, versteht diesen Scherz, den Google hier als Antwort auswirft). Die letzte und wohl schwierigste Frage war: „Welche Domain ist nicht in den Google Top-10 für den Begriff Suchmaschine“? Als Antwortmöglichkeiten waren „Google.de“, Bing.com“, Blinde-Kuh.de“ und „Fireball.de“ vorgegeben. Die richtige Antwort war „Google.de“, die als Suchergebnis bei Google tatsächlich nicht beim Suchwort „Suchmaschine“ auf der ersten Seite auftaucht. Hätten Sie es gewusst? Eigentlich ein eindrucksvolles Beispiel dafür, dass die vielen Vorwürfe, Google würde die Suchergebnisse zu ihren Gunsten manipulieren, ins Leere greifen – wenn man nur mal genauer hinschaut und natürlich auch verstanden hat, wie die Rankingmechanismen dort funktionieren. SEOnär wurde Marcus Meurer und am Ende konnte die Show durch Teilnehmer- und Sponsorenspenden mit 2.000 Euro zum Regenwaldprojekt beitragen.

Am ersten Abend sorgte dann die Band „United Four“ für eine Bombenstimmung – in rockigen Lederklamotten und mit nackten Schädeln coverten sie optisch konträr „Mamma Mia“ von Abba, Hits von Queen oder „Sweet Caroline“ von Neil Diamond. Viele der Vortragenden hatten wegen des Mitsingens am nächsten Tag leichte Probleme mit ihren Stimmbändern. Alles in allem darf das Rahmenprogramm wohl als rundum gelungen bezeichnet werden.

Das mit Sicherheit größte Highlight der SEO-Campixx war der Workshop von Bing mit Frank Fuchs. Für nur sechs Teilnehmer, die exklusiv eingeladen waren, öffnete er tatsächlich die Haube der Suchmaschine und zeigte den begeisterten Zuhörern beeindruckend, wie Bing tickt und was im Inneren abläuft. Fuchs ging auch detailliert auf den jüngsten Vorfall ein, bei dem Bing vorgeworfen wurde, Suchergebnisse von Google zu kopieren. Dabei zeigte er live auf, wie diese „Kopie“, die eigentlich keine war, algorithmisch zustande kam (wir hatten im Blog von Website Boosting bereits einige Wochen vorher darüber berichtet). Leider dürfen wir keinerlei Details des Workshops abdrucken, weil jeder Teilnehmer ein hartes NDA (Vertraulichkeitsvereinbarung) unterschreiben musste. Angesichts der wirklich offenen Live-Demonstrationen und der begleitenden Diskussion war dies allerdings mehr als verständlich.   

André Alpar und Dominik Wojcik klärten in einer anderen Session ausführlichst über einige Blackhat- und Craphat-Techniken wie z. B. XSS-Hacks oder SQL- und Malware-Injection auf. Moderne Hacker hinterlassen heutzutage auf Websites keine sichtbaren Spuren mehr wie die Skriptkiddies in den Anfangszeiten des Web. Es geht nicht um Angeberei, dass man einen Webserver gehackt hätte. Solche Hacks werden professionell gegen Geld oder mit knallhartem wirtschaftlichem (illegalem) Interesse durchgeführt. Die Hacker gehen dabei meist nach dem gleichen Schema vor: Man attackiert kostenlose Open-Source-Software. Diese hat den Vorteil, dass sie quelloffen und damit leicht inspizier- und veränderbar ist und einen hohen Verbreitungsgrad hat. Dabei müssen die Hacker noch nicht einmal selbst nach Sicherheitslücken suchen.

Diese werden ihnen von den Programmierern praktisch kostenfrei über aktuelle Patches geliefert. Im simpelsten Fall werden einfach die alten und die neuen Dateien verglichen und so sind die Änderungen schnell gefunden. Da eben auch oft Schwachstellen bzw. Sicherheitslücken geschlossen werden, wird man bei solchen Vergleichen praktisch mit der Nase auf die Problemstellen gestoßen. Nun muss nur noch nach Verwendern der alten, ungepatchten Version gesucht werden. Auch dies verlangt keine langen Wühlarbeiten, denn bei gezielten Suchen z. B. nach Textmustern in Suchmaschinen bekommt man die (noch) anfällige Software meist ebenfalls direkt auf dem Silbertablett geliefert. Da solche Sicherheitspatches oft am Ende der Woche oder gar am Freitagnachmittag publiziert werden, haben die Hacker am Wochenende genügend Zeit, in die gefundenen Systeme einzudringen – noch bevor die Systemadministratoren der Unternehmen wieder an ihren Arbeitsplätzen sitzen.

Nachdem ein System (z. B. ein CMS, ein Blog- oder Shopsystem) kompromittiert ist, wird Schadcode eingeschleust. Dies können Werbelayer sein oder es werden Trojaner versteckt, die sich bei Besuchern der Website einnisten und diese zu Zombierechnern machen. Über diese werden dann z. B. Attacken auf andere Webseiten gefahren (hier sollen sogar schon Versuche von Schutzgelderpressungen erfolgt sein) oder derartige Botnetze werden gegen Geld für andere Zwecke an „jedermann“ vermietet. Im einfachsten Fall werden Spam-E-Mails darüber verschickt.

 

Für Unternehmen, deren Server gehackt wurden, kann ein beträchtlicher Schaden entstehen: Nicht nur, dass beim Bekanntwerden ein Imageproblem entsteht – Suchmaschinen wie z. B. Google werfen Websites mit solcher Malware relativ schnell aus dem Index und verbannen sie sogar aus dem Adwordssystem. Damit stürzen die Besucherzahlen und somit auch der Umsatz in den Keller – für eine unbekannte und unkalkulierbare Zeitdauer!

Alpar wies auch auf die Probleme des sog. „Social Hackings“ hin. Dazu sucht man sich gezielt einen Mitarbeiter eines Unternehmens, spricht ihn persönlich per E-Mail an und packt z. B. ein mit einem Trojaner versehenes Bild in den Anhang: „Hallo Joe, bist Du das auf dem Bild neben der Blondine?“ Baukästen, mit denen sich dies technisch auch ohne Programmierkenntnisse bewerkstelligen lässt, sind leider für wenig Geld auf entsprechenden Seiten im Web zu erwerben. Wurde das Bild dann aufgerufen und der Schadcode damit ausgeführt, überwacht der installierte Trojaner z. B. den gesamten Internetverkehr des Unternehmens, filtert Zugriffe auf Webpräsenzen (z. B. über ftp), Benutzernamen und Passwörter ab und schickt sie ganz einfach per E-Mail an einen definierten Empfänger – den Hacker. Abhilfe bringt laut Alpar, in jedem Fall sicherheitsrelevante Patches sofort nach Bekanntwerden zu installieren, Sicherheitssoftware auf Clientrechnern und Servern sowie die Firewalls immer auf dem neuesten Stand zu halten und Zugriffe auf Webserver nur via https und sftp/ssh zuzulassen. Dass Passwörter nicht im Klartext gespeichert werden dürfen, sollte sich dabei eigentlich von selbst verstehen. Ebenso sollte man regelmäßig temporäre Ordner auf Webservern durchsuchen und auf von Hackern hinterlassene Files prüfen. Es wurde auch empfohlen, regelmäßig entsprechende Meldungen in den Google-Webmaster-Tools zu kontrollieren und die eigenen Seiten mit der Funktion „Abruf wie durch Googlebot“ anzusehen. Hacker bauen nämlich häufig zur Tarnung Weichen ein, damit der menschliche Besucher via Browser eine völlig normale Webseite zu sehen bekommt.

In der anschließenden Diskussion wurde von Teilnehmern sogar davor gewarnt, kostenlose Software (vor allem Browser-Plugins) zu verwenden. Man solle sich immer die Frage stellen, warum dieses oder jenes Plugin oder eine Software kostenlos ist. Vor allem viele der kostenlosen, sog. „Themes“ (Vorlagen) für Blogsoftware und Foren seien verseucht, meinte ein anderer Teilnehmer. Weitere Infos zu diesem wichtigen Thema sind unter boeserseo.com und andre.fm zu finden.  

In einigen Vorträgen wurde auch gezeigt, wie man als SEO insbesondere beim Linkaufbau quasi „unter dem Radar“ der Suchmaschinen bleibt. Dreh-, Angel- und Diskussionspunkt blieb dabei allerdings häufig, wie man unterschiedliche Impressi und Domaineigentümer „erzeugen“ kann, ohne dabei illegal zu agieren. Diese durchaus berechtigte Frage schien allerdings nicht alle Teilnehmer zu berühren, denn wenn man die Zahlungen für eine Domain nur genügend tarne, dann wäre man relativ sicher, wurde hinter halb vorgehaltener Hand in Kaffeerunden erkärt.

Frank Doerr erläuterte in einem Vortrag die Vor- und Nachteile von Linkkauf oder -miete. Er zitierte u. a. Jim Boykin, der sinngemäß auf der letzten PubCon in Las Vegas sagte, dass man beim Ranking im Shorthead (einfache, generische Keywords, Anm. d. Red.) ohne gekaufte Links keine Chance habe. Doerr referierte auch über einige interessante Beispiele. So kaufte SEOMoz für seinen Blog testhalber Links, mit zum Teil durchschlagendem Erfolg. Das Ranking stieg für einen Blogbeitrag von Platz 458 auf Platz 30, bei einem anderen von Platz 198 auf Platz 4 – in nur vier Tagen (http://einfach.st/lkmoz). Es funktioniert also, was unter SEO-Experten auch nie bezweifelt wird. Fraglich bleibt immer nur, wie lange ein gekaufter Link von der maschinellen Analyse unerkannt bleibt oder wie lange es dauert, bis ein Mitbewerber solche Einkaufstouren mittels eines Experten herausfindet und sie bei den Suchmaschinen per Spamformular meldet. Dies komme seiner Ansicht nach, so Frank Doerr, gar nicht mal mehr so selten vor. Er wies darauf hin, Matt Cutts als oberster Rankinghüter bei Google habe auf der gleichen PubCon angekündigt, dass man in Zukunft noch härter gegen Linkkauf vorgehen werde. Als kleines Fazit blieb damit hängen, dass gekaufte (gemietete) Links natürlich durchaus beim Ranking ziehen, es aber darauf ankommt, ob und wie lange die Quellen dafür unentdeckt bleiben. Nicht diskutiert wurde, dass gekaufte, aber als solche nicht gekennzeichnete Links durchaus auch ein juristisches Nachspiel haben können – wegen der fehlenden Trennung redaktioneller und werblicher Inhalte. Zumindest mittel- bis langfristig ist Linkkauf daher wohl nicht ganz ohne Risiko. Hanns Kronenberg hat auf seinem Blog übrigens ein paar recht gute Gedanken für eine Investitionsrechnung zur Backlinkmiete publiziert und bietet sogar eine entsprechende Excel-Tabelle zum Download an (http://einfach.st/blinv).   

Jim Boykin: SPAM = „Sites Positioned Above Me“ Jim Boykin (Seiten, die über meinen im Ranking angezeigt werden).

Christoph Cemper stellte in einer der Sessions sein neues Linkanalysetool „CLA“ vor, das in die LinkResearchTools integriert wurde (siehe auch letzte Ausgabe Website Boosting 3/4 2011) und wie man es für SEO-Analysen richtig anwenden kann. Mit einigen eingängigen Beispielen zeigte er, wie man die Linkstrukturen von top-platzierten Websites zergliedert und getrennt gewichtet.

Ziel sei es dann, so Cemper, diese Strukturen zunächst nachzubilden, denn alles, was deutlich von der Linkstruktur der Top 10 abweicht, wäre nicht gut. Erst nach dem Gleichziehen sollte man sich daranmachen, die anderen zu überholen.

Cemper ist überzeugt, dass das Twittern von URL einen spürbaren Einfluss auf das Ranking haben kann – wenn dies von vernünftigen Accounts gemacht würde. Die automatisierten Bot-Accounts hätten wohl wenig Einfluss, weil sie unnatürliche Muster erzeugen, mit denen die Suchmaschinen recht gut umgehen könnten und weil auch Twitter solche Accounts recht gut erkenne und in der Regel schnell sperre. Unter den Zuhöreren war man sich relativ einig, dass der Spam via Twitter daher wohl in der nächsten Zeit eher noch weiter zunehmen werde. Auf Cempers Frage, ob das denn schon jemand aktiv betreibe, kam ein verschämtes, aber deutliches „Ja, macht Spaß!“ aus den Auditorium.

Der bekannte Kunstmaler und SEO Martin Mißfeldt gab wertvolle Tipps, wie man das Ranking von Bildern bei Suchmaschinen verbessern kann. Gerade bei Google kommt es immer wieder vor, dass normale Bilder plötzlich aus der Bildersuche verschwinden. Das liegt nach Mißfeldts Meinung häufig daran, dass hier die recht scharf eingestellten Jugendschutzmechanismen greifen. Dies kann man leicht überprüfen, indem man die entsprechenden „SafeSearch“-Filter von „aus“ auf „moderat“ und noch auf „strikt“ stellt und jeweils in den drei Filterstufen mit „site:www.dieeigenedomain.de“ die Anzahl der gelisteten Bilder überprüft. Kommen zu viele Hauttöne vor, können sich Bilder recht schnell in diesen Filtern verfangen, weil die Maschine anstößige Inhalte vermutet. Laut Mißfeldt experimentiert Google hier sehr viel herum und das Wegfiltern von Bildern, die vorher jahrelang angezeigt wurden, kommt daher gar nicht so selten vor. Schlägt der Filter an, werden in der Regel gleich alle Bilder einer Domain auf den „Index“ gesetzt und bei der offenen Suche unterdrückt. Ebenso kann anstößiger Text in der Nähe von Bildern zu einem solchen Ausschluss führen. Sollten solche ungerechtfertigten Ausschlüsse vorkommen, rät Martin Mißfeldt, dies im entsprechenden Forum auf Google Webmaster Central zu posten. Susan Moskwa von Google würde die Anfragen an die zuständigen Teams weiterleiten (Direktlink: einfach.st/pixsafe). Der Bilderexperte erwähnte noch, dass gerade bei Google Bilder gut ranken, die schon im Bilderindex vorhanden wären. Allerdings warnte er gleichzeitig zu Recht davor, einfach ohne Erlaubnis Kopien zu ziehen und diese auf der eigenen Domain zu publizieren.  

Die SEOCampixx 2012 wird wohl wieder Mitte März in Berlin stattfinden. Interessierte sollten sich diesen Termin rechtzeitig auf den Kalender setzen. Die Karten werden wahrscheinlich auch das nächste Mal wieder innerhalb von Stunden vergriffen sein.