Googles Panda-Update 4.0: Weniger ist deutlich mehr!

Jonas Weber
Jonas Weber

Jonas Weber ist freiberuflicher SEO-Berater. Er arbeitete davor u. a. bei Google im Search Quality Team in Dublin, Irland, bevor er als geschäftsführender Gesellschafter den Aufbau der Online-Marketing-Agentur „webhelps“ verantwortete. Des Weiteren war Diplom-Kaufmann Jonas Weber im Online-Marketing bei Großkonzernen wie Lufthansa und Bertelsmann tätig. Sowohl auf vielen Branchen-Konferenzen als auch an den Entrepreneurship Centern der LMU und TU München hält er jährlich Fachvorträge zum Themenbereich Suchmaschinenoptimierung (SEO).

Mehr von diesem AutorArtikel als PDF laden

Um den 20. Mai herum schlug Google wieder zu und publizierte das Panda-Update 4.0. Es gab wieder einige Verlierer, aber auch viele Gewinner. Bemerkenswert ist, dass fast alle Webportale, die es erwischte, schon bei den letzten Panda-Updates und Iterationen positiv oder negativ betroffen waren. Eine Analyse von Jonas Weber, einem ehemaligen Mitarbeiter aus dem Google Search Quality Team, versucht aufzuzeigen, was Google dieses Mal veränderte bzw. welche Maßnahmen generell für Sitebetreiber wichtig sind, um die eigene Webpräsenz dauerhaft Panda-freundlich zu gestalten. Wer nach der Lektüre seines Beitrags noch immer nicht erkannt hat, welche SEO-Strategien wirklich tragfähig sind, dem ist wahrscheinlich nicht mehr zu helfen. 

In der Regel wird Panda als Content-Update definiert; Google versucht, hochwertigen von minderwertigem Content zu trennen. Content besteht hierbei nicht nur aus (SEO-)Texten, sondern auch aus Bildern, Videos und PDF-Downloads. Das Spannende und Geniale am Panda-Update ist, dass selbst die Kreation einzigartiger Inhalte, also „Unique Contents“, u. U. nicht mehr ausreicht, da Panda auch User-Signale mit einbezieht, um zu bewerten, ob der Content als hochwertig einzustufen ist oder nicht. Somit hat Google den ehrlichsten Rankingfaktor überhaupt geschaffen: das Benutzerverhalten.

Panda besteht aus mehreren Rankingfaktoren

Wie beim gesamten Algorithmus hat Google auch bei Panda mehrere Stellschrauben, an denen man drehen kann. Während bei jeder monatlichen Iteration wohl nur aktualisierte Daten berücksichtigt werden, kann sich bei größeren Updates auch die Gewichtung der einzelnen Rankingfaktoren ändern und u. U. können sogar neue Rankingfaktoren hinzugefügt und alte entfernt werden. Dabei ändert sich das Hauptziel von Google nicht, nämlich den User so gut es geht zufriedenzustellen.

„Content, der den Suchenden wenig nützt, fliegt raus.“

Der ganze Prozess kann plakativ und vereinfacht verdeutlicht werden: Einzelne Panda-Rankingfaktoren könnten z. B. sein:

  • Anteil
    - Unique (einzigartiger) Content
    - Duplicate (doppelter bzw. mehrfach auftauchender) Content
    - Thin (zu wenig bzw. inhaltlich eher minderwertiger) Content
  • Anteil Brandsuchen/generische Suchen
  • Benutzerverhalten (CTR, Absprungrate, Time on Page/Site)

(Hinweis: Die Faktoren wurden aus eigenen Erfahrungswerten extrahiert). Jeder dieser Hauptrankingfaktoren kann nochmals in einzelne Unterfaktoren gestückelt werden. In einer Art Nutzwertanalyse (http://de.wikipedia.org/wiki/Nutzwertanalyse) ist eine Gewichtung der einzelnen Rankingfaktoren möglich, d. h., den Faktoren werden unterschiedliche Wichtigkeiten zugeordnet. Google könnte z. B. im Zuge des Panda–Updates 4.0 definiert haben, dass der Markenbonus nicht mehr so stark gewichtet wird wie zuvor (s. Tabelle 1).

Rankingfaktor

Wert

Gewichtung vor Panda 4.0

Wert

Gewichtung nach Panda 4.0

Anteil Unique/Duplicate Content

x

0,3

x

0,5

Anteil Brandsuchen/generische Suchen

y

0,3

y

0,2

Benutzerverhalten

z

0,4

z

0,3

Tabelle 1: Drei mögliche Rankingfaktoren, gewichtet in einer Art Nutzwerttabelle

Wird bei der Addition aller Faktoren ein gewisser Grenzwert überschritten, den Google jederzeit neu anpassen kann, wird die Website beim nächsten Panda-Update zu den Betroffenen gehören. Ändert Google bei einem neuen Panda-Update die Gewichtungen der einzelnen Rankingfaktoren, kann eine Website, obwohl an ihr keine Veränderungen durchgeführt wurden, plötzlich zu den Gewinnern oder eben auch zu den Verlierern gehören.

Gewinner und Verlierer

In den Datenauswertungen der großen Toolanbieter (http://einfach.st/puguv1 und einfach.st/puguv2) ist zu sehen, dass es teilweise große Verschiebungen gab. Einige Shopping-Aggregatoren wie ladenzeile.de und stylight.de konnten ihre Sichtbarkeitswerte mehr als verdoppeln. Andere Shopping-Aggregatoren wie idealo.de und discounto.de wurden spürbar vom Panda 4.0 getroffen (s. Tabelle 2).

Website

Änderung der Sichtbarkeit bei Searchmetrics vor/nach Panda 4.0 (in %)

Änderung der Sichtbarkeit bei Sistrix vor/nach Panda 4.0 (in %)

ladenzeile.de

+ 111

+ 135

stylight.de

+ 136

+ 169

idealo.de

- 24

- 29

discounto.de

- 22

- 28

 Tabelle 2: Veränderung der Sichtbarkeiten von vier ausgewählten Websites

Diese vier Shopping-Websites eignen sich aufgrund der gleichen Thematik für eine Analyse, um besser zu verstehen, was Google beim letzten Panda-Update geändert haben könnte. In der folgenden qualitativen Analyse (nicht quantitativ und somit nicht repräsentativ!) werden alle vier Websites auf die potenziellen oben genannten Rankingfaktoren hin untersucht.

Verhältnis von Unique zu Duplicate Content

Alle Shopping-Portale haben im Prinzip die gleiche Herausforderung zu lösen. Für „navigational searches“ zu ranken, ist in der Regel die leichteste Aufgabe (Ausnahmen bei Keyword-Domains), die Optimierung auf informative Suchanfragen ist jedoch nicht immer zielführend. Die attraktivsten und umkämpftesten Suchanfragen bilden dementsprechend die transaktionellen Suchen, die in zwei Bereiche unterteilt werden können: Suchen nach generischen Kategorien und Suchanfragen nach spezifischen Produkten. Sowohl generische Kategorien (anstatt „Gürtel“ dann „reduzierter gelber Gürtel von Levis“) als auch Produktsuchen (anstatt „iPhone“ dann „weißes iPhone 8GB SIM lock frei“) lassen sich auf den Long Tail hin optimieren.

„Eine vernünftige Analyse ist bereits die halbe Miete.“

Zunächst wird mit dem Suchoperator site:domain die Abfrage überprüft, wie viele Seiten jede der Websites im Google-Index hat. Zwar liefert uns Google nur grobe Zahlen, aber für eine erste Orientierung helfen sie. Während die beiden Gewinner ladenzeile.de (253.000) und stylight.de (23.300) verhältnismäßig nur sehr wenige Seiten im Index haben, sind für idealo.de (9.150.000) und discounto.de (1.280.000) erwartungsgemäß über 1 Million Seiten zu finden.

Ein tieferer Blick erklärt auch, warum: Ladenzeile.de und stylight.de keine Produktdetailseiten indexieren. Bei ladenzeile.de können zwar alle Produktdetailseiten über den kleinen Info-Button aufgerufen werden (s. Abb. 1), allerdings sind sie alle auf noindex, follow gesetzt. Das heißt, Google indexiert keine einzige Produktdetailseite von ladenzeile.de. Einerseits scheint diese Strategie fahrlässig, da keine Millionen Landingpages für Produktsuchanfragen existieren. Andererseits ist die Strategie auch genial, da es viel einfacher ist, für weniger Kategorieseiten Texte zu schreiben als für viele einzelne Produkte. Hier geht ladenzeile.de einem großen Problem aus dem Weg: fehlende oder doppelte Produktbeschreibungen. Außer Amazon und Ebay hat eigentlich keiner der großen Retailer genügend User Generated Content zur Verfügung, um diesem Problem entgegenzuwirken.

Interessant ist auch zu sehen, dass einzelne Kategorie-Landingpages für mehrere Hundert Keywords ranken können, z. B. ladenzeile.de/haribo für 581 verschiedene Suchphrasen (s. Abb. 2), und das auch für bestimmte Produkte wie Haribo Weinland, obwohl keine separaten Produkt-Landingpages indexiert sind (s. Abb. 3).

Ladenzeile.de geht sogar noch einen Schritt weiter: In der linken Subnavigation lassen sich die diversen Kategorien filtern. Sind zu viele Filter gesetzt, wird auch hier die Seite auf noindex, follow gesetzt. Somit wird nochmals die Indexierung von zu viel Thin Content vermieden. Die meisten Kategorieseiten, die auf index, follow gesetzt sind, haben unten links einen Textblock mit Unique Content (z. B. taschen.ladenzeile.de/kindertaschen-rucksaecke/). Es lässt sich festhalten, dass ladenzeile.de so ein extrem hohes Verhältnis von Unique zu Duplicate bzw. Thin Content erreicht.

Stylight.de geht denselben Weg: Alle Produktdetailseiten und viele zu spezifische Kategorien sind auf noindex, follow gesetzt.

„Google möglichst viele Seiten hinzuwerfen statt der wichtigen, scheint keine gute SEO-Strategie.“

Beim Verlierer idealo.de ist es anders: Hier werden Kategorien und Produkte indexiert. Bei knapp 140 Millionen Produkten können natürlich nicht alle Produktdetailseiten mit Unique Content (einzigartige Produktbeschreibungen und/oder User Generated Content) versorgt werden (z. B. einfach.st/idealo1). Somit entsteht vermehrt indexierter Thin Content.

Ähnliches Bild bei discounto.de: Auch hier werden Kategorien (Anbieter, Themen) und Produkte indexiert, und das sogar für jedes Stadtangebot. Das Resultat sind allein für die sehr spezielle Suche „site:www.discounto.de  intitle:Apple iPhone 5s“ über 30.000 indexierte Ergebnisse (s. Abb. 4). Auf den Produktdetailseiten werden die Texte sehr oft gespinnt, nur Städte und Adressdaten werden ausgetauscht. Diese SEO-Strategie erhöht definitiv den Duplicate-Content-Anteil der Website.

Suchanteil Brands

Der Anteil der Branduchen im Verhältnis zu generischen Suchen kann anhand diverser Tools nur geschätzt werden. Zunächst lässt sich in Google Trends beobachten, ob die Markenbekanntheit einer Website in den letzten Monaten gesteigert wurde. Nur stylight.de hat eine leichte Steigerung zu verzeichnen, bei den anderen Plattformen bleibt die langfristige Markenbekanntheit auf einem relativ konstanten Niveau (s. Abb. 5).

Anschließend zeigt der Google AdWords Keywordplaner die absoluten monatlichen Brandsuchen auf. Mithilfe des Analysetools similarweb.com ist anschießend eine absolute Traffic-Schätzung möglich, anhand derer ein Verhältnis Brand-/Non-Brand-Traffic errechnet werden kann. Es gilt zu bedenken, dass einzelne Marketingaktionen wie TV-Werbung die Brandsuchen kurzfristig stark positiv beeinflussen können. Greift Google aber z. B. auf ein arithmetisches Mittel der letzten zwölf Monate zurück, werden solche Ausreißer auch wieder geglättet.

Website

Brandsuchen „brand“ und „brand.de“ pro Monat im Mai 2014 (AdWords)

geschätzte Besucher pro Monat aus Search im Mai 2014 (similarweb.com)

Verhältnis Brand Search/Search gesamt

ladenzeile.de

56.100

1.850.000

0,030

stylight.de

45.900

559.000

0,082

idealo.de

733.500

11.500.000

0,064

discounto.de

2.880

598.000

0,004

zalando.de

4.200.000

2.840.000

1,479

preisgenau.de

20

64.000

0,0003125

Tabelle 3: Absolute und relative Anzahl der Brandsuchen

Die Ergebnisse aus Tabelle 3 zeigen auf, dass idealo.de ganz klar die am häufigsten gesuchte Marke ist. Allerdings hat idealo.de auch den mit Abstand höchsten Traffic aus Search zu verzeichnen. Der relative Wert pendelt sich somit auf einem recht niedrigen Wert ein. Idealo.de war bei den letzten Panda-Updates kaum betroffen, wohl auch aufgrund der starken Marke im Vergleich zu anderen Preissuchmaschinen. Es könnte somit sein, dass Google an dieser Schraube drehte und das Brandgewicht verkleinert wurde.

„Zalando macht bezüglich Panda alles richtig.“

Dafür spricht auch, dass die beiden Portale ladenzeile.de und stylight.de bei den absoluten Zahlen keine hohen Suchvolumen für ihre Marke vorweisen können und der relative Wert ähnlich gering ist. Discounto.de existiert nicht wirklich als Marke – eine weitere mögliche Ursache für die Rankingverluste in Google.

Als Vergleichswerte dienen noch zalando.de und preisgenau.de. Zalando.de hat noch bei keinem Panda-Update Einbußen hinnehmen müssen, es zeigt sich ein extrem positives Verhältnis zugunsten der Marke. Ein konträres Bild beim dauerhaften Panda-Opfer preisgenau.de: Die Website ist als Marke unbekannt. Schon seit dem Vince-Update (Brand-Update) ist ein negativer Trend in der Sichtbarkeit zu beobachten.

Benutzerverhalten

Das Analysetool similarweb.com listet einige Schätzdaten in Bezug auf das Benutzerverhalten, auf die Google in ähnlicher Form für die eigene Bewertung zurückgreifen könnte (s. Tabelle 4).

Website

Time on Site in Minuten Mai 2014

Page Views/Visit Mai 2014

Bounce-Rate in % Mai 2014

ladenzeile.de

3:52

3,50

45,30

stylight.de

4:15

5,15

33,66

idealo.de

3:35

3,83

46,38

discounto.de

1:45

3,29

48,95

zalando.de

8:08

11,46

26,80

preisgenau.de

0:38

1,25

81,59

Tabelle 4: Daten zum Benutzerverhalten auf den einzelnen Webportalen (similarweb.com)

Wie immer geht es Google darum, den Benutzer zufriedenzustellen. Das Benutzerverhalten auf zalando.de ist mit Abstand das am besten zu beurteilende: hohe Aufenthaltsdauer, viele Page Views/Visit und eine Absprungrate unter 30 %. Den negativen Gegenpol bildet preisgenau.de. Hier erklären die einzelnen Werte relativ eindeutig, dass sich der User nur „verlaufen hat“. Somit ist es selbstverständlich, dass Google eher eine Shoppingplattform wie zalando.de prominent listet.

„Google will den Benutzer zufriedenstellen.“

Interessanterweise sind bei ladenzeile.de und idealo.de sehr ähnliche Benutzerwerte zu beobachten. Da beide Websites schon etwas länger vom Autor begutachtet werden, lässt sich festhalten, dass in den letzten zwölf Monaten keine derart großen Änderungen unternommen wurden, die eine extreme Abweichung des Benutzerverhaltens rechtfertigen würden. Da ladenzeile.de als großer Gewinner von Panda 4.0 hervorging und idealo.de gehörig verlor, scheint es eher unwahrscheinlich, dass Google stark an der Schraube „Benutzerverhalten“ drehte.

Fazit

Nach Analyse der drei Teilbereiche, die Google als Hauptrankingfaktoren dienen könnten, scheint vor allem das Verhältnis von indexiertem Unique zu Duplicate/Thin Content beim Panda-Update 4.0 eine große Rolle gespielt zu haben. Ladenzeile.de und stylight.de machten mit verhältnismäßig sehr wenigen Seiten im Index sehr große Sprünge in der Sichtbarkeit. Die Seiten aber, die im Index vertreten sind, zeichnen sich durch eine gesunde Mischung von Text- und Bildinhalten aus.

Spätestens seitdem Google mit dem Hummingbird-Update noch besser in der Lage ist, auch semantische Zusammenhänge von Texten zu erkennen, kann eine starke Landingpage für Hunderte von Keyword-Kombinationen ranken. Es ist nicht mehr ohne Weiteres nötig, für jede Keyword-Phrase eine neue Landingpage bei Google indexieren zu lassen. Bei zu wenig Mehrwert und zu viel Ähnlichkeit zu anderen Seiten scheint dies inzwischen eher kontraproduktiv.