25 Fragen und Antworten zum großen Pinguin-Update von Google

Saša Ebach
Saša Ebach

Saša Ebach arbeitet seit 2001 als SEO und Webentwickler und liebt es, Tools zu testen. In seinem Podcast „Content, Links und SEO“ spricht er die über die besten Beiträge, die er zu Content-Marketing, Linkaufbau und Suchmaschinenoptimierung im Netz finden kann. Reinhören lohnt sich.

Mehr von diesem AutorArtikel als PDF laden
Timo Abid
Timo Abid

Timo Abid ist geschäftsführender Gesellschafter bei seo2b in Trier. Die Online-Marketing-Agentur mit klarem Fokus auf die Suchmaschinenoptimierung bietet ihren Kunden nachhaltige SEO-Dienstleistungen und ist neben technischen Optimierungen spezialisiert auf den Linkaufbau.

Mehr von diesem AutorArtikel als PDF laden

Nach über zwei Jahren Wartezeit hat es Google endlich geschafft, den berüchtigten „Pinguin“ direkt in den eigenen Kern-Algorithmus zu integrieren. Er läuft jetzt also nicht mehr als manuell angestoßener „Patch“, wie das bisher der Fall war. Negative Auswirkungen werden daher ab sofort bei der Berechnung der Rankings angewendet. Außerdem gibt es weitere Neuigkeiten seit dieser gewichtigen Änderung. Die Autoren Saša Ebach und Timo Abid sammelten für Sie in Form von 25 Fragen und Antworten alle bisher bekannt gewordenen Daten und Fakten und ergänzten sie mit Beispielen. Zusätzlich geben sie noch praktikable Hinweise, wie sich mit dem neuen Echtzeit-Pinguin richtlinienkonforme Links aufbauen lassen.

Wofür steht eigentlich Googles „Pinguin“?

Der Pinguin wurde im April 2012 von Google eingeführt, um minderwertige Links (Linkspam) zu bekämpfen. Pinguin ist ein Webspam-Algorithmus, der Seiten überprüft und bestimmt, ob diese von minderer Qualität sind. Wer viele Links von solchen Seiten hat, der läuft potenziell Gefahr, die eigenen Rankings zu verlieren. Links von minderwertigen Seiten degradieren die eigenen Rankings.

Wie viele Pinguin-Updates gab es bisher und wann folgt das nächste?

Bisher gab es sieben Updates. Die genauen Daten:

  1. Penguin 0 am 24.04.2012
  2. Penguin 1.1 am 205.2012
  3. Penguin 1.5 am 05.10.2012
  4. Penguin 2.0 am 23.05.2013
  5. Penguin 2.1 am 04.10.2013
  6. Penguin 3.0 am 18.10.2014
  7. Penguin 4.0 am 23.09.2016

Das siebte Update war das letzte. Es wird laut Google keine weiteren Ankündigungen über Pinguin-Updates mehr geben.

Was passierte in der Woche, als Pinguin 4.0 global von Google ausgerollt wurde?

Viele Websites, die schon seit Langem im Pinguin-Filter gefangen waren, erholten sich wieder. Hier mal ein paar erfreuliche Sichtbarkeitsverläufe aus dem Kundenpool der Autoren und aus freier Wildbahn. Diese Sichtbarkeitsverläufe lassen auf gute Rankings hoffen. Aber längst nicht jede Website, die im Pinguin-Filter steckte, kam dort auch wieder raus.

Geht es um schlechte Links oder um schlechte Seiten mit Links?

Der Pinguin-Algorithmus schaut sich laut Aussagen Googles die Qualität der verlinkenden Seite an, also nicht unbedingt den Link selbst oder gar die Ankertextverteilung. Gerade die Ankertextverteilung mag dennoch eine gewisse Rolle spielen. Sie gehört nur eher nicht zum Pinguin, sondern zu anderen Teilen des Algorithmus. Sinngemäß in den Worten von Googles Sprachrohr Gary Illyes:

SEOs sollten sich anschauen, woher ein Link kommt, auf welcher Seite dieser Link steht, und sich dann überlegen, ob sie einen Link von dieser Seite haben wollen oder nicht.

Im Prinzip gibt es keine schlechten Links. Nur Links, die von schlechten Seiten kommen. Dieser Beitrag verwendet den Begriff „schlechte Links“ aus Gründen der guten Lesbarkeit durchgängig in diesem Sinne: schlechte Links = Links von schlechten Seiten.

Wie erkenne ich minderwertige Seiten?

Minderwertig ist eine Seite, wenn sie keinen oder kaum Mehrwert für ein Publikum bietet. Mit Publikum ist immer ein Leser, Zuhörer oder Zuschauer gemeint. Also braucht eine Seite sinnvolle Texte, Töne, Bilder oder Videos, um ihrem Publikum diesen Mehrwert zu bieten. Beispiele für minderwertige Seiten sind laut Google leere Forenprofile, unsinnige Blogkommentare und alle anderen Seiten ohne Content oder mit sehr fragwürdigen Inhalten. Googletypisch wird der Begriff „fragwürdig“ leider nicht besser erklärt.

Google erkennt minderwertige Seiten algorithmisch. Wer eine Seite manuell überprüfen möchte, der stellt diese drei Fragen an die Seite:

  1. Bietet die Seite genügend Inhalte?
  2. Weckt die Seite Skepsis bezüglich der Vertrauenswürdigkeit des Inhalteanbieters?
  3. Sind die Links auf der Seite legitim im Sinne einer redaktionellen Verlinkung?

Ist eine dieser Fragen negativ zu beantworten, so lässt sich behaupten, dass die Seite wahrscheinlich von geringerer Qualität ist.

Pinguin 4 ist granularer/detaillierter: Was bedeutet das?

Historisch wertete Pinguin immer die gesamte (Sub-)Domain ab. Wenn Google zu viele schlechte Links entdeckte, dann reduzierte Google auch die Sichtbarkeit der gesamten Domain stark und eliminierte sie in Extremfällen auch komplett.

Die neue Granularität bedeutet nach Aussagen Googles, dass Links von geringer Qualität entweder einfach ignoriert werden, oder aber, dass eine Penalty auf eine einzelne Seite bzw. einen Website-Bereich beschränkt wird. Im Originalwortlaut:

Die Penguin-Auswirkungen sind jetzt detaillierter.
Penguin wirkt sich jetzt auf Spam aus, indem das Ranking basierend auf Spamsignalen angepasst wird, statt das Ranking der gesamten Website zu betreffen.

Bildlich gesprochen: Statt eine Atombombe abzuwerfen, sendet Google jetzt in der Regel nur noch eine Drohne vorbei, die gezielt einzelne Seiten oder Gruppen von Seiten „eliminiert“.

Kann ich jetzt problemlos wieder zweifelhaftere Links aufbauen?

Google behält sich immer das Recht vor, gegen eine komplette Website vorzugehen. Wer also glaubt, jetzt wieder mit spammigen Links experimentieren zu können, der sollte sich das sehr genau überlegen.

Wenn bestimmte Grenzen überschritten werden, dann kann immer noch die gesamte Sichtbarkeit einer Domain verloren gehen.

Das ist vielleicht etwas für Experimentierwiesen, aber nichts für ordentliche Unternehmen/Website-Betreiber.

Welche psychologischen Auswirkungen verursachte der Pinguin-Algorithmus?

Aufgrund der Schwere der möglichen Bestrafung brach unter vielen Website-Betreibern seit 2012 große Panik aus. Auch wenn es nicht stimmt, halten viele Website-Betreiber das Aufbauen von „Links“ für die Ursache der Abstrafungen. Das führte zu einer Art Angst, die sich auch als „Linkaufbau-Schockstarre“ bezeichnen lässt. Der Hintergedanke: Lieber ganz mit dem Linkaufbau aufhören, denn der ist zu gefährlich geworden.

Dabei hatte es Google gar nicht darauf abgesehen, eine solche Reaktion hervorzurufen, denn Links sind vor allem für Google selbst immer noch ein sehr wichtiger Rankingfaktor. Die Google-Suchergebnisse leben davon, dass sich Seiten untereinander verlinken. Wer sich noch daran erinnern kann: Google wurde zum Weltkonzern, gerade weil die Suchmaschine neben Texten auch Links in die Bewertung nahm. Angenommen, alle Menschen würden nicht mehr nach außen verlinken, so würde Google über kurz oder lang vermutlich einen großen Teil seines Kerngeschäftes verlieren. Andere Suchmaschinen wie z. B. Yandex versuchten das schon. Ohne Erfolg.

Experten der SEO-Branche werfen Google vor, damals deutlich zu aggressiv mit der Situation umgegangen zu sein. Vor allem der Umstand, dass Google zwei Jahre brauchte, um den Pinguin-Algorithmus zu „reparieren“, ist sicher nicht als Glanzleistung hervorzuheben. Die Websites, die seit dem letzten Update in einer Penalty festhingen, mussten mehr als zwei Jahre lang Sichtbarkeitsverluste und damit Umsatzeinbrüche hinnehmen. Und das auch, wenn sie bereits nach wenigen Monaten ihre „Fehler“ beseitigt hatten. Frank Doerr berichtete in seinem Blog über den Fall home24.de und mutmaßte, dass das Unternehmen dadurch eventuell einen hohen Millionenbetrag verlor.

Was bedeutet „Echtzeit“?

In der Vergangenheit fungierte der Pinguin-Algorithmus als Ergänzung zum Haupt-Algorithmus. Zuerst berechnete der Haupt-Algorithmus das Ranking. Danach wurde der Pinguin-Algorithmus als Filter auf die errechneten Daten angewendet. Seiten oder Websites mit vielen schlechten Links wurden dann abgewertet oder ganz aus den Ergebnissen entfernt. Es handelte sich also um einen zweischrittigen Prozess, der seitens Google von Hand angestoßen werden musste.

Google war dies auf lange Sicht zu unpraktisch, deswegen wurde der Pinguin-Algorithmus in den Kern-Algorithmus integriert. Wenn Google die Rankings heute berechnet, wird der Pinguin-Algorithmus automatisch berücksichtigt – in Echtzeit.

Was ist gegen minderwertige Links zu tun?

Wer Links von niedriger Qualität im eigenen Linkprofil entdeckt, der kann diese vorsichtshalber über das Google-Disavow-Tool entwerten. Google behauptet, dass dies in vielen Fällen nicht mehr notwendig sei. Aber sicher ist sicher. Denn es ist nie wirklich klar, ob Google einen Link einfach nur entwertet – also ohne negative Auswirkungen auf die Link empfangende Seite „neutralisiert“ – oder aber das Ranking des Linkziels reduziert. Eine regelmäßige Linkprofil-Analyse bleibt daher zu empfehlen. Vor allem dann, wenn viele Rankingschwankungen auftreten.

Wie oft sollte eine Website disavowen?

Im Idealfall ständig, wenn denn Links hinzukommen, die wirklich gefährlich aussehen. Jede Website sollte einen Prozess zum Risikomanagement für das eigene Linkprofil haben. Täglich ist perfekt. Aber natürlich nur dann, wenn jeden Tag Dutzende neuer Links hinzukommen. Sonst reicht wahrscheinlich auch wöchentlich, monatlich oder quartalsweise.

Wichtig ist, dass jeder Website-Betreiber einmalig eine komplette Analyse des Linkprofils anstellt und dann regelmäßig neue Links überprüft.

Wer liefert eine Liste meiner Links?

Eine Liste des eigenen Linkprofils liefert Google in der Search Console kostenlos. Es gibt aber auch viele kommerzielle Anbieter, die eigene Datenbanken haben: Majestic, SISTRIX, CognitiveSEO, LinkResearchTools, Moz, ahrefs, Linkdex etc.

Wie schnell werden Seiten nach einem Disavow neu eingelesen?

Nachdem Links über das Disavow-Tool entwertet wurden, dauert es eine Weile, bis Google diese Seiten neu einliest. Schließlich waren die Seiten aus Googles Sicht ja minderwertig. Das bedeutet, dass diese Seiten auch keine hohe Priorität beim nächsten Crawl zugewiesen bekommen. Laut Google kann es schon mal sechs bis zwölf Monate dauern, bis Google diese Seiten wieder einliest. Erfahrungswerte zeigen jedoch, dass das oft auch schon nach ca. drei Monaten der Fall ist.

Diesen Fakt sollten experimentierfreudige SEOs unbedingt berücksichtigen, bevor sie damit anfangen, die Auswirkungen minderwertiger Links im großen Stil zu „testen“.

Gibt es eine Möglichkeit, das Recrawling zu beschleunigen?

Es gibt zwei Möglichkeiten, das Recrawling etwas zu beschleunigen:

  1. Wenn über die Search Console ein Hinweis von Google über eine Penalty kam, so ist es möglich, einen Reconsidaration-Request zu stellen. In diesem Fall stößt Google selbst ein Recrawling an.
  2. Wer dem Recrawling maschinell etwas nachhelfen möchte, kann Tools wie das „Link Detox Boost“ aus den LRT ausprobieren. Das Tool beansprucht für sich, einen Weg gefunden zu haben, den Google-Bot dazu zu bringen, bestimmte URLs neu einzulesen. Der Anbieter verrät aber nicht genau, wie das funktioniert.

Woran lässt sich erkennen, ob Google-Bot eine Seite neu eingelesen hat?

Googles John Mueller bestätigte, dass ein Disavow auf eine URL angewendet wurde, wenn sich das Cache-Datum einer Seite aktualisiert. Ein Disavow sei intern nichts anderes als ein unsichtbares Nofollow. Allerdings ist es möglich, dass Google den Index aktualisiert, ohne das Cache-Datum anzupassen. In diesem Fall würde das Disavow angewendet, aber es wäre nicht am SERP-Snippet erkennbar.

Lassen sich linkbasierte Pinguin-Strafen überhaupt noch erkennen?

Google kann eine Seite abwerten, weil sie schlechte Links erhält. Das Problem der neuartigen Granularität liegt darin, dass es vielleicht gar nicht mehr möglich ist, kleinere Abwertungen zu erkennen. Es könnte beispielsweise sein, dass eine Seite nur auf Platz 4 rankt und ein paar minderwertige Links dafür verantwortlich sind. Würde man diese Links entwerten, dann stiege die Seite vielleicht um weitere Positionen nach oben. Solche Tests sind aber gemeinhin sehr riskant. Denn es könnte auch sein, dass die entwerteten Links eine positive Wirkung hatten. Wer jedoch einen Link per Disavow entwertet, verliert vorerst dessen Wirkung. Testen ist hier nicht wirklich möglich.

Es lässt sich also nicht mit hundertprozentiger Sicherheit bestimmen, ob ein Link positive oder negative Signale ausstrahlt. Es hilft lediglich, das eigene Linkprofil immer schön sauber zu halten. Auch auf die Gefahr hin, dass mal ein guter Link dran glauben muss.

Was ist, wenn jemand absichtlich schlechte Links auf meine Seiten setzt?

Sabotage ist schon lange ein kontrovers diskutiertes Thema. In einigen Branchen gehört sie schon seit vielen Jahren zum Waffenarsenal der SEOs.

Es gibt leider unzählige Case-Studys von glaubhaften Website-Betreibern, die schildern, was mit ihrer Website nach einer solchen Negativ-SEO-Attacke geschah. Sie verlieren über viele Monate hinweg ihren Traffic. Manche Websites erhalten ihre Rankings auch nie wieder zurück. Ein guter Beitrag hierzu: „Negative SEO: Destroying Businesses One Spammy Backlink at a Time“ unter → bit.ly/bad-links-wpsitecare. Ryan Sullivan, der Autor dieses Beitrags, schreibt:

Die Realität ist, dass mit dem richtigen Netzwerk und wenig Know-how Konkurrenten komplett vom Netz genommen werden können und so ihr gesamtes Business verlieren.

Aus Googles Sicht soll das aber alles gar nicht möglich sein. Jedenfalls heißt es im Wortlaut, negatives SEO sei extrem selten. Ganz auszuschließen ist es laut Google dann doch nicht.

Ist Pinguin 4.0 Teil des Machine-Learnings bei Google?

Laut Aussagen von Google-Mitarbeitern sei dies nicht der Fall. Die Branche spekulierte schon darauf, dass Google Pinguin-Signale historisch auswertet. Sie sind aber eher als algorithmischer Teil des Google-Algorithmus zu verstehen. Im Gegensatz dazu „sammelt“ maschinelles Lernen Daten und wertet diese aus, um aus ihnen zu lernen. Maschinelles Lernen ist also immer eine historische Betrachtung von Datenpunkten.

Gibt es gute Tools, die bei der Erkennung von Linkspam helfen?

Es gibt eine Menge Tools, die bei der Erkennung von Linkspam helfen können. Darunter z. B. die drei Marktführer LinkReseachTool, remove'em und rmoov. Für das manuelle Klassifizieren ist CognitiveSEO auch sehr zu empfehlen.

Brauche ich unbedingt ein Tool gegen Linkspam?

Das kommt ein wenig darauf an, wie groß das eigene Linkprofil ist. Grundsätzlich können diese Tools schon sehr hilfreich sein. Zum Schluss aber kommt es bei jedem Link auf eine manuelle Einschätzung an. Denn in den meisten Fällen lässt sich schon mit den Augen erkennen, ob eine Seite vertrauenswürdig, der Content mehrwertig ist und die Links legitim sind. Auf die automatische Klassifizierung der Toolanbieter allein sollte man sich im Zweifel nicht verlassen.

Wie baue ich gegen Pinguin abgesicherte Links auf?

Die Antwort darauf muss lauten: Baue nur Links auf Seiten auf, die vertrauenswürdig sind, die legitim verlinken und deren Content echten Mehrwert bietet. Alle Websites, die nur zum Zwecke der Manipulation existieren, fallen automatisch raus.

Wer aber wirklich auf Nummer sicher gehen möchte, der richtet sich nach folgender Maxime:

Baue ausschließlich gute Links auf.

Was ist ein guter Link?

Google möchte nur noch gute Links. Da stellt sich natürlich die Frage, was unter einem guten Link zu verstehen ist. Ein guter Link ist aus Googles Sicht ein Link, den die Suchmaschine zur Rankingberechnung verwenden „möchte“. Ein solcher Link hat also eine Qualitätsschwelle überschritten, die es der Suchmaschine erlaubt zu sagen: „O. k., du bist gut genug, dich nehme ich mit in meine Berechnung auf.“

Welche Kriterien gibt es, die einen Link gut machen?

Die beste Ressource, die wir als SEO-Branche dazu haben, ist das Google-Patent mit dem Titel: „Ranking documents based on user behavior and/or feature data (US 8117209 B1)“ → bit.ly/link-patent. In diesem Patent beschreibt Google sehr ausführlich, wie sie bei der Rankingberechnung – vor allem im Bezug auf Links – vorgehen. Hier sind die Highlights aus dem Patent (Aussagen aus dem Patent sind kursiv dargestellt):

  • Wird ein Link geklickt, dann wirkt sich das positiv aus. → Wer mit Chrome surft, wird geloggt und kann seine Klickpfade sogar auf Googles „Meine Aktivitäten“ einsehen.
  • Wird ein Link nicht geklickt, dann kann sich das auch negativ auswirken.
  • Wird auf einer Seite kein Link geklickt, dann ist das ein negatives Signal für die ganze Seite. → Damit auch für alle Links darauf.
  • Auf welcher Position innerhalb des Dokumentes steht der Link? → Es kommt also darauf an, ob der Link im Kopf, Fuß oder mitten im Text vorkommt.
  • Auf welcher Position innerhalb einer Liste von Links steht der Link? → Der wievielte Link ist es? Je früher ein Link kommt, desto besser könnte er sein.
  • Welche Fontfarbe und -größe hat der Link? → Mit anderen Worten: Ist der Link gut sichtbar/klickbar? Sticht er hervor? Ist es visuell ein wichtiger Link.
  • Welcher Linktyp ist es? → Textlink, Bildlink oder vielleicht auch ein Typ von Link, von dem wir noch gar nichts wissen?
  • Enthält der Linktext bestimmte Wörter? → Der Linktext ist nach wie vor sehr wichtig.
  • In welchem Kontext steht der Link? Lässt er sich einem bestimmten Themenblock zuordnen? → Google schaut demnach genau darauf, ob ein Link eine Kontext erweiternde Funktion hat. Hat der Link die Funktion „Weiterführende Information“? Erfährt die Person, die auf einen Link klickt und auf der anderen Seite weiterliest, mehr über das Thema, zu dem verlinkt wurde?
  • Sind der Link und die Wörter vor oder nach dem Link von redaktioneller Natur? Google möchte am liebsten nur informationelle Links werten, also Links ohne Werbehintergrund.
  • Weisen die Wörter im und um den Linktext einen hohen Grad an Kommerzialität auf? → Google prüft, ob ein Link vielleicht nur auf eine Seite zeigt, die lediglich versucht, etwas zu verkaufen. Wenn ein Link eine Transaktion vorbereitet, ist er ein Werbelink, den Google in der Regel nicht mit in die Bewertung aufnehmen möchte. (Sprich: Links auf Produktseiten in Online-Shops ohne redaktionelle Inhalte.)

Worauf kommt es denn jetzt wirklich beim Linkaufbau an?

Die Grundlagen zur Berechnung eines Rankings aus dem Google-Patent können als SEO-Regelwerk zum Linkaufbau betrachtet werden. Interessant daran ist, dass es nicht wirklich auf die Strategie ankommt.

  • Links aus Artikelverzeichnissen? Kein Problem, wenn diese Verzeichnisse intelligent sind, mehrwertige Inhalte vorweisen können, legitim verlinken und echte Leser haben.
  • Links aus Gastbeiträgen? Aber sicher, wenn diese Gastbeiträge einen hohen informationellen Gehalt haben und viele Leser finden, die auf die Links klicken.
  • Links aus Foren? Klar, wenn diese aus nützlichen Diskussionen kommen.

Wichtig sind die Prinzipien, nicht unbedingt die Strategie im Detail. Wenn beides stimmt, dann kommt dabei der perfekte, unangreifbare, Ranking fördernde Link heraus. Wer davon viele hat, der gewinnt den Wettbewerb um die Rankings.

Wo kann ich mehr über perfekte Links erfahren?

Wer mehr über perfekte Links erfahren möchte, den laden wir ein, sich den Webinar-Mitschnitt „Linkaufbau 2017: Die neuesten Tipps, Tricks und Strategien“ anzuschauen → bit.ly/linkaufbau-2017, und den Beitrag „So sieht der perfekte Link aus“ → bit.ly/perfekter-link zu lesen. Hier gibt es viele weitere Informationen zum Thema Links und Linkaufbau.