SEO-Basics: Die Power der internen Verlinkung

Mario Fischer
Mario Fischer

Mario Fischer ist Herausgeber und Chefredakteur der Website Boosting und seit der ersten Stunde des Webs von Optimierungsmöglichkeiten fasziniert. Er berät namhafte Unternehmen aller Größen und Branchen und lehrt im neu gegründeten Studiengang E-Commerce an der Hochschule für angewandte Wissenschaften in Würzburg.

Mehr von diesem AutorArtikel als PDF laden

Sie dachten, der PageRank von Google sei mittlerweile tot? Sie dachten, interne Links seien nicht so wichtig, entscheidend seien externe (Back)links? Sie dachten, möglichst viel von einer Seite aus zu verlinken, sei gut für die Besucher und auch für das Ranking? Und vielleicht dachten Sie auch, die Texte auf den internen Links (Ankertexte) spielen keine so große Rolle? Dann sollten Sie auf jeden Fall diesen Beitrag aus unserer Reihe SEO-Basics aufmerksam lesen. Die interne Verlinkung sollte nicht zufällig gesetzt werden, sondern einer wohlüberlegten Strategie folgen. Sie hat nämlich einen nicht zu unterschätzenden Einfluss darauf, wie Ihre einzelnen Seiten am Ende ranken. Das Thema der internen Verlinkung bezüglich der Ankertexte wird von SEO-Tool-Anbietern bisher eher vernachlässigt. Dort konzentriert man sich hauptsächlich auf die Analyse von Backlinks. Das ist auch durchaus wichtig, um ggf. Strafen von Google zu vermeiden. Interne Links werden – wenn überhaupt – zwar auf ihre Struktur und Erreichbarkeit hin analysiert, aber meist nie auf die Einzigartigkeit von Ankertext zum Linkziel hin.

Um ein wenig Licht in den Dschungel der internen Verlinkung zu bringen, hilft es enorm, sich an das ursprüngliche Prinzip der PageRank-Berechnung anzulehnen. In der Zeit vor Google mit Suchmaschinen wie Altavista oder Fireball war es üblich, das Ranking einer Webseite vor allem nach der Häufigkeit von Suchwörtern auf dieser Seite zu bestimmen. Im Zweifel gewann diejenige Seite, die ein Wort am häufigsten verwendete. Die beiden Google-Gründer Page und Brin entdeckten bei Recherchen für ihre Promotionsarbeiten damals eher zufällig, dass Seiten, die sie kannten und häufig benutzten, sehr viele eingehende Links von anderen Domains hatten. Das Prinzip „Ein Link ist wie eine Art Empfehlung“ war geboren. Nicht jede dieser „Empfehlungen“ aber darf das gleiche Gewicht haben. Das ist auch heute noch so. Wenn z. B. Stiftung Warentest ein Produkt empfiehlt bzw. mit einem guten Label versieht, hat das in der Regel mehr Gewicht, als wenn ein eher unbedeutender Blogbeitrag dies tut. Insofern musste man eine Art Gewichtungsfaktor mit einführen. Die Berechnungsweise nannten die beiden in Anlehnung an „Page“ für Seite und den Nachnamen eines der Gründer „PageRank“. Dieser wurde patentiert für die Stanford University, da beide dort noch als Doktoranden arbeiteten. Eine Suchmaschine zu bauen, die neben den Texten einer Seite eben auch noch die eingehenden Links zu dieser Seite berücksichtigt, ließ die beiden nicht mehr los – die Qualität der Suchergebnisse könnte dramatisch ansteigen, wenn man beides, Text UND Verlinkung, mit einfließen lässt. Der Rest ist Geschichte. Ein interessanter Fun-Fact in diesem Zusammenhang ist, dass Google noch immer Patentgebühren in Form eines mehrstelligen Millionenbetrags an die Stanford University abführt, um den PageRank-Algorithmus nutzen zu dürfen.

Uralt, aber immer noch wichtig zu wissen: der PageRank

Vernachlässigt man die Mathematik hinter der PageRank-Berechnung, kann man sich den Algorithmus in etwa so vorstellen: Die Bedeutung eines Dokuments steigt an, wenn andere bedeutende Dokumente darauf verlinken. Dabei kommt es nicht auf die schiere Anzahl an Links an, sondern auf die Gewichtung der Seite, von der die Links abgehen. Ein Dokument mit höherer Bedeutung kann also pro Link „mehr Bedeutung“ über seine abgehenden Links vererben als ein unbedeutendes. Für die linkempfangende Seite wird die durch diese eingehenden Links übertragene Gewichtung aufsummiert und dieser Wert ist dann der PageRank. Früher konnte man diesen mit einem Wert von 0 bis 10 (am höchsten) einsehen, bis Google diese Transparenz aus mehreren guten Gründen abschaltete. Stellt man sich also ein Dokument (in der Regel eine HTML-Seite) mit einem PageRank von fünf vor, haben die von dort abgehenden Links sehr viel mehr Power (man spricht oft von „Linkjuice“) als Links von einer Seite mit einem PageRank von eins. Der PageRank-Algorithmus ist sozusagen die Urmutter der Linkbewertung. Auch wenn die Bedeutung dieses singulären Wertes für das Ranking über die Jahre kontinuierlich abgenommen bzw. die Anzahl der Metriken für die Rankingberechnung dramatisch zugenommen hat, berechnet Google zumindest nach eigener Aussage ihn noch immer. Mit ziemlicher Sicherheit darf man davon ausgehen, dass hier nicht mehr exakt die ursprünglich im Patent verwendeten Methoden zum Einsatz kommen. Dies ist alleine schon wegen der seit damals geradezu explodierten Menge an Webseiten und Links iterativ über das gesamte Web gar nicht mehr machbar. Insofern werden mathematische und statistische „Abkürzungen“ und Hochrechnungen vorgenommen. Das Prinzip der Vererbung von Bedeutung hat allerdings weiterhin Bestand.  

Learning 1: Ein Link ist nicht gleich ein Link. „Starke Seiten“ vererben pro Link mehr Power.

Die Anzahl der internen Links auf eine Seite ist wichtig

Da sich alle abgehenden Links, egal ob zu internen Seiten der gleichen Domain oder extern zu anderen Domains, die vererbbare Power aufteilen müssen, ist die Anzahl dieser Links ein entscheidender Faktor. Gehen z. B. nur zehn Links von einer Seite ab, überträgt vereinfacht erklärt jeder dieser Links zehn Prozent des in Summe vererbbaren PageRanks. Gehen 100 Links weg, überträgt jeder dieser Links nur noch ein Prozent. Sind es 200 Links, halbiert sich das noch mal auf ein halbes Prozent.

Natürlich ist die Berechnung ein klein wenig komplexer, da im Originalpatent des PageRanks auch noch ein sog. Dämpfungsfaktor dazukommt. Der ist nötig, damit bei den vielen Iterationen der Berechnung nicht ganz am Ende alle Seiten den PageRank-Wert zehn haben. Man kann sich das als eine Art Erbschaftssteuer vorstellen. Eine Seite gibt also genau genommen niemals den gesamten PageRank ab, sondern nur 85 % davon.

„Frage: Is internal linking still important for SEO? Antwort: Yes, absolutely!”; John Müller, Google.

Seedpages – wie zentral bedeutend ist eine Seite?

Sehr viel weniger bekannt als der PageRank sind verschiedene andere Linkmetriken, die Google aller Wahrscheinlichkeit nach verwendet. Zumindest gibt es entsprechende Patente, die erklären, warum und auf welche Weise Linkbeziehungen wichtig sein können. Im US-Patent 9.953.049 B1 (Abbildung 2) wird z. B. erklärt, dass man anhand der Linkstruktur berechnen kann, welche Webseiten innerhalb einer Site von zentraler Bedeutung sind. Im einfachsten Fall wird gemessen, von welchen Seiten man wie viele Klicks zu allen anderen Seiten benötigt. Anschließend wird ein Ranking für jede Seite durchgeführt. „Determine a ranking score for each page in the set of pages based on the shortest distances”, heißt es dazu dort.

Zur Beurteilung der Rolle eines sog. Knotens (einer Webseite) für das gesamte Netz (die Site oder Domain als Ganzes mit allen Seiten) kann mit verschiedenen Zentralitätsmaßen beurteilt werden, wie Abbildung 3 schematisch zeigt. Die sog. Closeness Centrality enthält eine oder mehrere Seiten, in der Abbildung ist das „D“, von denen aus man mit den wenigsten Klicks zu allen anderen Seiten gelangt. Die Betweeness Centrality hingegen errechnet Seiten, die eine Art Brückenfunktion ausüben. Nur über sie kommt man von Teilen der Site in einen oder andere Teile. Klassischerweise ist dies oft beim Einsatz von Blogsystemen als Zusatz zum normalen CMS zu beobachten. Die Startseite des Blogs ermöglicht den Zugang zu den Blogartikeln. Von anderen Seiten gelangt man meist nicht dorthin – außer der Betreiber hätte für eine (wirklich meist sinnvolle!) weitere manuelle Verlinkung gesorgt. „Hubs“ sind dagegen Seiten, von denen aus man mit nur einem Klick zu den meisten anderen Seiten kommt.

„Internal SEO? Antwort: Yes, absolutely!”; John Müller, Google.

Betrachtet man in der Abbildung 3 die linke Darstellung und stellt sich vor, die Seiten D und F hätten ähnlich starke Signale für ein Keyword, dann würde es aus Sicht einer Suchmaschine auf jeden Fall Sinn machen, besser die Seite D im Ergebnis auftauchen zu lassen. Denn diese hat den Vorteil, dass man sehr viel schneller von dieser Domain zu anderen, vielleicht auch interessanten Seiten für diese Suchabsicht gelangt als bei Seite F. Von dort aus müsste man viermal klicken bis zu Seite C. Von D aus genügen zwei Klicks. D liegt somit viel zentraler als F.

Abbildung 4 zeigt eine mittels des kostenlosen Tools Gephi erzeugte Visualisierung von Seiten und deren Linkbeziehungen. Man erkennt hier auf Anhieb, wo zentrale Knoten liegen, und kann dann ggf. einer vorher allzu starren schematischen Verlinkung entgegenwirken, wenn sie so nicht beabsichtigt ist.

Tipp

Wie Sie Gephi nutzen können, um Ihre interne Verlinkungsstruktur zu visualisieren, können Sie online im Archiv der Website Boosting in Ausgabe 44 im Titelbeitrag nachlesen bzw. als PDF downloaden:

www.websiteboosting.com/magazin/44/berechnen-sie-ihren-pagerank-doch-selbst.html

„Strukturierst Du schon oder verlinkst Du noch möglichst viel?“

Nofollow und noindex vernichten PageRank unwiederbringlich

Wer jetzt glaubt, „unwichtige“ Links einfach per Nofollow-Attribut von der Zählung ausschließen zu können, damit Google den gesparten Anteil auf die restlichen Links verteilt und diese damit stärker macht, irrt sich leider. Bereits vor über zehn Jahren machte Matt Cutts von Google deutlich, dass der PageRank-Anteil eines mit nofollow gekennzeichneten Links verloren geht. Ein Beispiel: Eine Seite hätte 100 ausgehende Links und 99 davon wären mit nofollow versehen – dann könnte der eine übrig gebliebene Link trotzdem nur ein Prozent weitergeben. Auch der in Deutschland beobachtbare „Linkgeiz“, oft externe Links zu entwerten, damit man andere Domains nicht stärkt, bringt also für einen selbst keinerlei Effekt. Im Gegenteil. Und noch einen Punkt muss man im Auge behalten. Linkt man Seiten auf anderen Plattformen an, z. B. für eigene Social Media Präsenzen, zeigt man mit einem Nofollow-Attribut den Suchmaschinen, dass man am Ende selbst diesen Seiten nicht vertraut und sich von den Inhalten distanziert. Genau dafür ist dieses Attribut ja unter anderem da! Wer also z. B. Links auf das eigene Pinterest-Profil mit nofollow entwertet, bewirkt damit das Gegenteil von gut. Wenn diese Profilseite nämlich viele werthaltige Backlinks bekommen würde, hat sie eine viel bessere Chance, ebenfalls über Google gefunden zu werden. Natürlich nur, sofern die Plattformbetreiber die Bots von Suchmaschinen nicht aussperren.  

Aber auch die Verwendung von noindex auf der linkempfangenen Seite vernichtet jede Menge Power. Denn diese Anweisung sorgt dafür, dass Google diese Seite zwar crawlt bzw. kennt, aber sie wird nicht mehr gerendert (also so aufbereitet, wie man sie tatsächlich im Browser sieht) und damit für eine Auswertung aufbereitet. Somit kennt Google die dann dort wieder abgehenden internen Links nicht und es kann also auch kein PageRank mehr zurückfließen auf eigene Seiten.

Man linkt also eine Seite an, PageRank fließt dorthin – bleibt aber dort und wird nicht mehr z. B. über die dortige Navigation zurückgegeben. Noindex-Seiten sind also eine Art PageRank-Friedhof! 

Learning 3: Noindex und nofollow sollte man mit Bedacht einsetzen, um sich nicht selbst zu schaden.
Learning 4: Einen Link mit nofollow zu versehen, „spart“ keinen PageRank für die übrigen Links, sondern vernichtet die vermeintlich zurückgehaltene Power.

Die Linktexte (Ankertexte) sind extrem wichtig

Extrem wichtig sind die Ankertexte, also die sichtbaren Texte auf einem Link. Sind diese nichtssagend wie „mehr lesen“ oder „hier klicken“, kann Google nichts lernen über die Seite, auf die der Link zeigt. Lautet ein Ankertext hingegen „blaue Laufschuhe“, kann diese Textphrase für das Ranking für „blaue Laufschuhe“ der Zielseite verwendet werden, sofern diese ansonsten eben auch bei der Rankinganalyse dafür steht. Ankertexte alleine können eine Zielseite in der Regel nicht zum Ranken bringen, ohne dass die Seite auch thematisch gut passt. Aber sie haben nach Meinung vieler Experten eine durchaus feststellbare Wirkung. Man sollte also wo immer möglich gute und passende Ankertexte verwenden. Letztlich nützt das ja auch den Besuchern. Ein guter Ankertext verrät, wohin man gelangt, wenn man klickt, und vermeidet zudem Fehlklicks.

Zitat: „Eines der größten Missverständnisse bei SEO ist, dass man mit nofollow oder noindex PageRank sparen könnte“

Man kann sich den Ankertext auch als eine Art Klingelschild vorstellen. Gibt es in einem Hochhaus mit 200 Wohnungen Aufschriften neben der Klingel wie „hier klingeln“ oder „Wohnung 78“ statt „Marie Habersatter-Totschnik“, käme wohl weder je Besuch noch ein einziges Paket. Ein weiteres Beispiel: Stellen Sie sich einen Stuhlkreis mit 20 unbekannten Personen vor. 15 Personen zeigen auf jemanden und sagen alle: „Marie Habersatter-Totschnik.“ Sie würden mit ziemlicher Sicherheit davon ausgehen, dass dies der Name der Person ist, auf die alle gezeigt haben. Dieses Beispiel ist auch wunderbar geeignet, die Wichtigkeit einzigartiger (uniquer) Ankertexte hervorzuheben. Würden nämliche die 15 Personen auf sechs verschiedene Menschen zeigen, aber den gleichen Namen rufen, wären Sie sich höchstwahrscheinlich nicht mehr so sicher, wer von denen Marie ist. Alle? Eher unwahrscheinlich.

So verhält es sich auch mit den Ankertexten. Einer der größten Fehler, die man machen kann, ist, mit jeweils exakt dem gleichen Ankertext von einer oder auch verschiedenen Seiten auf verschiedene Ziele zu verweisen (Abbildung 5). Mit anderen Worten: Wenn der Text „blaue Laufschuhe“ auf acht Zielseiten zeigt – welche stehen denn dann für blaue Laufschuhe? Dies verwässert die Signale, die Google für das Ranking der Zielseite(n) heranziehen kann. Und wenn sich die Algorithmen nicht genügend sicher sind, unterbleiben Top-Rankings in der Regel. Bevor man ständig auf einen falschen Klingelknopf drückt, lässt man es eben – sofern man genug Alternativen hat, die exakter sind. Und Alternativen hat Google eigentlich immer.

Zitat: „Ein Linktext ist ein Versprechen“; Jakob Nielsen

Wenn man jetzt aber mehrere Seiten mit blauen Laufschuhen hat – wie umschifft man diese Herausforderung? Das ist überhaupt kein Problem. Die Seiten müssen sich ja durch etwas unterscheiden, sonst gäbe es ja nicht mehrere Seiten. Diese Unterscheidung nimmt man in den Ankertext mit hinein:

  • Blaue Laufschuhe mit Überpronationskontrolle
  • Blaue Laufschuhe von AdiPumo
  • Blaue Laufschuhe für kaltes Wetter
  • Blaue Laufschuhe mit gelber Sohle

Das nutzt den Besuchern und es nutzt eben auch der Suchmaschine. Unique bedeutet tatsächlich auch eine 1:1-Übereinstimmung. Sobald ein Ankertext von einem anderen abweicht, gibt es kein Problem mehr.

Tipp

also den Backlinks. Hier ist darauf zu achten, dass nicht zu viele gleiche Keyword-Ankertexte auf die gleiche URL zeigen. Das wird seitdem sog. Pinguin-Update als Spamsignal gewertet, weil es unnatürlich ist. Insofern wird meist erklärt, dass man es mit den einzigartigen Ankertexten keinesfalls übertreiben soll. Das ist richtig, gilt aber nicht für interne Links. Hier ist es im Gegenteil ja folgerichtig, auf eine URL mit (möglichst) immer dem gleichen Text zu verweisen, und das kann bzw. darf nie ein Grund für eine Bestrafung seitens Google sein.

Links aus dem Contentbereich sind … guuut

In der Regel kann Google ganz gut messen, wo der Contentbereich einer Seite liegt und wo wiederkehrende Elemente wie die Navigation, eine Sidebar oder ein Footer liegen. Der sog. Primary Content wird für die Signalgewinnung für das Ranking bevorzugt. Daher geht man davon aus, dass Links in diesem Textbereich auch etwas stärker wirken als reine Navigationslinks oder solche, die auf jeder Seite im Footer liegen. Sieht man sich den Aufbau von Wikipedia an, findet man hier einen Kern für das thematisch geniale Ranking. Weiterführende Links zu anderen Artikeln stehen immer im Contentbereich, sind sprechend und durch das System erzwungen immer einzigartig. Es ist nicht möglich, bei Wikipedia einen Link mit ein und demselben Ankertext auf zwei unterschiedliche Zielseiten zu setzen.

Wenn Sie also für einzelne wichtige Seiten besonders viel Aufmerksamkeit haben möchten, empfiehlt sich die Verwendung einer zumindest vereinzelten Verlinkung aus dem Text heraus. Aber Vorsicht: Übertreiben Sie das nicht. Ständige Links in Texten ermüden beim Lesen und können die Konzentration der Besucher für das Textverständnis durchaus beeinträchtigen. Wenn man sich beim Lesen im Hinterkopf ständig fragt, ob man auf einen Link klicken soll oder nicht, kann sich das negativ auswirken. Wie immer gilt, solche Dinge mit Bedacht einzusetzen.

 

Tools für ein internes Linkaudit

Hat eine Website sehr viele Seiten, kann das alles schnell unübersichtlich wirken. Wenig hilfreich ist auch, dass praktisch kein Shopsystem oder CMS Funktionen eingebaut hat, die dabei helfen, die interne Verlinkung sauber, klar und stringent zu halten. Meist gibt es keinerlei Einschränkungen und man hat die volle Freiheit beim Anlegen von Links. Was sich verkaufstechnisch vielleicht als Vorteil darstellen lässt, ist allerdings aus SEO-Sicht eher suboptimal und kann durchaus ein wirklich hervorragendes Ranking wirksam verhindern. Vielleicht erbarmt sich ein Anbieter irgendwann mal, eine Funktion anzubieten, die wie bei Wikipedia Ankertexte bezogen auf die Linkziele nur noch unique erlaubt bzw. mindestens darauf hinweist, dass es Doppelungen gibt. Macht man so etwas abschaltbar, wäre allen gedient.

Bis dahin muss man sich mit Tools behelfen, um den Überblick zu behalten bzw. ab und an zu prüfen, ob Links auf nofollow gesetzt sind, Noindex-Attribute gesetzt wurden oder Ankertexte auf unterschiedliche Linkziele zeigen.

Leider zeigen die meisten Tools nur Ankertextanalysen für externe Links (Backlinks), wo das auch angebracht und wirklich hilfreich ist.  

Ryte bringt die automatische Ankertextanalyse

Prädestiniert für derartige Ankertextanalyse bzw. das Abfiltern von Ankertexten, die auf mehr als eine URL zeigen, wären hauptsächlich Site-Audit-Tools. Wir haben im Zuge dieses Beitrags mit den Machern von Ryte gesprochen, einem der bekanntesten Tools auf dem internationalen Markt. Dort hat man spontan zugesagt, eine solche Funktion mit zu integrieren. Ein Termin für die fertige Umsetzung konnte zum Zeitpunkt des Redaktionsschlusses noch nicht verbindlich genannt werden, aber wahrscheinlich wird bis zum Erscheinen dieser Ausgabe bereits etwas verfügbar sein. Bisher war es in Ryte möglich, gezielt bzw. im Einzelfall über Filter für einen Ankertext alle Ziel-URLs ausgeben zu lassen. Künftig sollten sich alle Doppel- bzw. Mehrfachverlinkungen in Summe darstellen und abrufen lassen.

Am einfachsten kommt man aktuell an die internen Linkdaten mit dem SEO-Crawler Screaming Frog. Nach dem Crawlen einer Domain exportiert man einfach unter Massenexport/Links eine der Dateien „Alle Inlinks“, „Alle Outlinks“ oder „Alle Ankertexte“. Diese enthalten dann die linkabgebende URL, die linkempfangende und die dabei verwendeten Ankertexte. Mit ein klein wenig Excelkenntnissen filtert man diese z. B. über eine Pivottabelle und erhält so alle Ankertexte, deren Zähler für die Ziel-URL größer 1 ist. Die Zahl gibt dann gleichzeitig an, mit wie vielen exakten Ankertextkopien auf unterschiedliche Zielseiten man es zu tun hat. Generische Ankertexte wie z. B. „weiter“, „zurück“ oder „mehr lesen“ sind für das Ranking irrelevant und können getrost ignoriert werden. Tauchen allerdings wichtige Keywords in der Liste mit >1 auf, sollte man dem auf den Grund geben und das Problem ggf. beheben.

In Ausgabe #67 finden Sie innerhalb unserer Reihe für das Tool R ein Skript, das die oben beschriebene Liste vom Screaming Frog automatisch so aufbereitet, dass man all diejenigen Ankertexte findet, die für mehrere URL als Linktext verwendet wurden (Abbildung 7). Auch diesen Beitrag können Sie kostenfrei im Archiv der Website Boosting nachlesen oder als PDF downloaden.

Einmal feucht durchwischen – zumindest den Esstisch

Ja, solche Analysen machen durchaus etwas Aufwand. Andererseits verschenkt man mit einer mehr oder weniger suboptimalen internen Verlinkung vielleicht wertvolles Potenzial für das Ranking. Zumindest sollte man sich die wichtigsten Seiten und Keywords näher ansehen und bei Zeitmangel – wer hat den nicht? – sich dann auf diese konzentrieren. Findet man zu viele Probleme bei der internen Linkstruktur, kann es sich auch lohnen, gezielt auf URLs und/oder Keywords zu filtern, die bei Position 4–6 liegen. Oder oben auf der zweiten Ergebnisseite. Dort kommt bekanntlich fast kein Traffic mehr an. Ebenso ist der Sprung von 4–6 nach weiter oben im Ranking oft dramatisch, weil die Ergebnisse über die sog. Falz rutschen und 1–3 von Suchenden in der Regel sehr viel häufiger zumindest gesehen und damit in Erwägung gezogen werden. Hier zählt jede Position! Während man eine Verbesserung von z. B. Position 25 auf 22 praktisch nicht bemerkt, kann ein Sprung um drei Ränge von 5 auf 2 eine Verdoppelung oder Verdreifachung des Klicktraffics bringen. Eine bessere und stringentere interne Verlinkung ist vergleichsweise einfach zu bewerkstelligen und sehr viel günstiger, als sich weitere Backlinks zu „besorgen“ – was ja bekanntlich eh gegen die Richtlinien von Google verstoßen würde.

Die gute Nachricht ist, dass es meist genügt, bei internen Links und ihrem Umfeld in größeren Abständen nach dem Rechten zu sehen. Findet man vor allem bei den Ankertexten einen argen Wildwuchs, ist es besser, dessen Ursache zu suchen und über das CMS oder entsprechende Schulungen abzustellen.

Wie immer gilt der weise Spruch von Albert Einstein: Die Definition von Wahnsinn ist, immer wieder das Gleiche zu tun und andere Ergebnisse zu erwarten. In diesem Sinne: Packen Sie es oder wenigstens etwas davon an!