RankBrain – Googles neue AI-Superwaffe?

Tobias Aubele
Tobias Aubele

Tobias Aubele ist Professor für E-Commerce an der Hochschule für angewandte Wissenschaften Würzburg-Schweinfurt und Berater für Webcontrolling. Im September wurde er „Deutschlands bester Conversion-Optimierer 2018“. Er lehrt das Themenumfeld Conversion-Optimierung, Usability und Webanalytics im Studiengang E-Commerce. Zuvor war er viele Jahre in einem internationalen Multi-Channel-Unternehmen in diversen Führungspositionen tätig, zuletzt als Bereichsleiter E-Commerce.

Mehr von diesem AutorArtikel als PDF laden
Kai Spriestersbach
Kai Spriestersbach

Kai Spriestersbach ist Bachelor of Science in E-Commerce und gehört zu den erfahrensten Suchmaschinen-Marketern in Deutschland. Er hat sich als Online Strategy Consultant und Partner der eology GmbH auf die strategische SEO-Beratung und Seminare zum Thema SEO und Suchmaschinen-Technologien spezialisiert. Daneben unterstützt und berät Kai Spriestersbach Start-ups in Web-Technologie- und Online-Marketing-Fragen, ist als Affiliate Publisher tätig und entwickelt innovative SEO- und Analyse-Tools für nutzerzentrierte und datengetriebene Strategien.

Mehr von diesem AutorArtikel als PDF laden
Mario Fischer
Mario Fischer

Mario Fischer ist Herausgeber und Chefredakteur der Website Boosting und seit der ersten Stunde des Webs von Optimierungsmöglichkeiten fasziniert. Er berät namhafte Unternehmen aller Größen und Branchen und lehrt im neu gegründeten Studiengang E-Commerce an der Hochschule für angewandte Wissenschaften in Würzburg.

Mehr von diesem AutorArtikel als PDF laden

Am 26. Oktober 2015 platzte eine kleine Bombe, als der Google-Mitarbeiter Greg Corrado in einem kurzen Interview mit Bloomberg erwähnte, man habe ein System mit künstlicher Intelligenz entwickelt, das intern den Namen „RankBrain“ trage und mit dem bereits seit Anfang 2015 verdeckte Tests gefahren werden. Er erklärte, man könne damit die ca. 15 % Suchanfragen, die zum ersten Mal als Suchbegriffe eingegeben werden, besser bearbeiten. Es sei, so Corrado, das drittwichtigste Rankingsignal. Seither gibt es wenig offizielle Informationen dazu. RankBrain lässt aber nicht nur viele Fragen offen, sondern hat das Potenzial, die bisherigen Regeln der Suchmaschinenoptimierung künftig ordentlich durcheinanderzuwirbeln. Dies zu erkennen, gelingt allerdings nur, wenn man sich etwas tiefer mit dem Thema künstliche Intelligenz (AI, Artificial Intelligence), Machine Learning und Entitäten beschäftigt. Wenn man dann noch die am Horizont stehenden neuen Möglichkeiten der unvorstellbaren Rechenbeschleunigung durch Quantencomputer dazunimmt, könnte aus der kleinen Bombe ganz schnell eine richtig große werden. 

Kai Spriestersbach, Tobias Aubele und Mario Fischer versuchen in dieser Ausgabe, für Sie etwas Licht in das verwirrend dunkle Grau zu bringen und auch einige Ecken besser und vor allem leicht verständlich auszuleuchten.

Die Organisation und Verarbeitung großer Datenmengen ist seit der Existenz der ersten Rechenmaschinen das wichtigste Aufgabenfeld von Computern. Insbesondere für Menschen aufwendige Rechenschritte können schnell und wiederholbar durchgeführt werden. Die ersten Computer wurden genau für diesen Zweck erdacht und konstruiert, doch die Fähigkeiten der maschinellen Datenverarbeitung waren stets begrenzt. Große Datenmengen und besonders rechenintensive Aufgaben konnten oft nicht bewältigt werden. Als schließlich die Prozessoren schneller, der Arbeitsspeicher größer und die Festplatten immer riesiger wurden, blieb ein Problem bestehen: die Verarbeitung unstrukturierter Daten.

Während Entwickler sich bei der Verarbeitung strukturierter Daten, beispielsweise aus einer relationalen Datenbank, auf das Vorhandensein gewisser Strukturen und Regelmäßigkeiten verlassen können, ist die Verarbeitung unstrukturierter Daten eine vollkommen andere Herausforderung. Hier kommt der bisherige Ansatz, detaillierte Regeln, Anweisungen und Ausnahmen im Vorfeld zu definieren und den Computer diese „nur noch“ ausführen zu lassen, an seine Grenzen. Ein vollkommen neuer Ansatz wurde notwendig, denn „Big Data“ und „Realtime-Verarbeitung“ sind aus modernen Anwendungen nicht mehr wegzudenken. Der Ansatz, mit dem viele dieser Probleme gelöst werden konnten, ist das „Machine Learning“, also das maschinelle Lernen.

Info

„Machine Learning“ oder zu Deutsch maschinelles Lernen ist der Oberbegriff für die „künstliche“ Generierung von Wissen aus Erfahrung. Ein künstliches System lernt aus Beispielen und kann nach Beendigung der Lernphase verallgemeinern. Das Besondere daran ist, dass nicht einfach Beispiele auswendig gelernt werden, sondern das System quasi selbstständig Gesetzmäßigkeiten in den Lerndaten „erkennt“. Anschließend kann das System dann auch bislang noch unbekannte Daten beurteilen. Beim maschinellen Lernen bringt sich der Computer also selbst bei, etwas zu tun, anstatt von einem Menschen angelernt zu werden oder stumpf dessen Anweisungen zu befolgen.

Neuronale Netze in den 1980er-Jahren

In den 1980er-Jahren, als die ersten Computer auf die Schreibtische gelangten, hatte man schließlich genug Rechenleistung verfügbar und versuchte, Handschriften und Unterschriften, die vorher gescannt wurden, mithilfe der Rechner zu erkennen. Dabei wurde eine Vielzahl von Verfahren ausprobiert und etwa 1985 gab es den ersten großen Run auf die künstlichen neuronalen Netze. Hier wurde dasselbe Verfahren wie im visuellen Kortex ausprobiert. Aus den gescannten Bildpunkten und dessen Grauwerten sollten die Zahlen von 0 bis 9 erkannt werden.

Wenn wir uns die unterschiedlichen Schreibweisen anschauen, die Menschen verwenden (Abbildung 1), eckige Zweien, runde Zweien etc., wird schnell klar, dass es sich dabei um ein sehr komplexes Problem handelt. Bei 28 x 28 Bildpunkten für eine gescannte Ziffer mit jeweils 256 Graustufen ergibt sich somit eine komplexe Datenreduktion von 200.704 bit auf nur noch zehn Werte.

Die Topologie eines Netzes, also die Zuordnung von Verbindungen zu Knoten, muss abhängig von seiner Aufgabe gut durchdacht sein. Nach der Konstruktion eines Netzes folgt die Trainingsphase, in der das Netz „lernt“. Theoretisch kann ein Netz durch folgende Methoden lernen:

  • Entwicklung neuer Verbindungen, Löschen bestehender Verbindungen
  • Ändern der Gewichtung
  • Anpassen der Schwellenwerte der Neuronen
  • Hinzufügen oder Löschen von Neuronen

Leider waren diese Versuche damals nicht besonders erfolgreich, denn bis 2007 hatten alle neuronalen Lernverfahren ein gemeinsames Problem: Bis zu einer bestimmten gelernten Teilmenge funktionierte alles wunderbar, doch ab einer gewissen Schwelle sorgten neue Lerndaten dann plötzlich und abrupt für eine drastische Verschlechterung der Ergebnisse.

Das Hauptproblem damals: Die Rechenkapazität fehlte. Man kürzte bei der Berechnung der Schwellenwerte Nachkommastellen ab und wurde damit zu ungenau. Außerdem waren die Netze für die meisten Aufgaben nicht komplex genug gestaltbar.

Verbreitete Anwendungsfälle für maschinelles Lernen

  • Spracherkennung: Egal ob Apples Siri, Googles Voice Search oder Microsofts Cortana – alle diese Dienste benutzen künstliche neuronale Netze.
  • Bilderkennung: Die massenhafte Anonymisierung von Nummernschildern, Gesichtern und die Erkennung von Hausnummern in allen Fotos von Google Streetview.
  • Videoerkennung: Jeff Dean brachte dem Google Brain mittels Videodaten von YouTube bei, Katzen zu erkennen. Der Algorithmus funktioniert so gut, dass er alle Katzen findet und nichts, was keine Katze ist.
  • Selbstfahrende Autos: Parallele Datenverarbeitung in Echtzeit der unterschiedlichen Sensoren der autonomen Fahrzeuge ist nur mithilfe neuronaler Netze möglich. Erst kürzlich stellte nvidia einen eigenen Supercomputer für neuronale Netze auf der CES 2016 vor.
  • Komponieren: Neuronale Netze können einfach Gema-freie Musik in Echtzeit komponieren. Dienste wie Jukedeck (www.jukedeck.com) können sogar sekundengenau Musik für Videos oder Spiele erstellen, die einer bestimmten Stimmung und einem gewünschten Genre entspricht.
  • Betrugserkennung: Mit Machine Learning ist es einfach, Prognosemodelle aufzubauen, mit deren Hilfe potenzielle betrügerische Einzelhandelstransaktionen bzw. betrügerische oder unangemessene Artikelrezensionen erkannt werden können. Selbst über die Besonderheiten beim Eintippen falscher Adressdaten in Formulare können heute mit hoher Wahrscheinlichkeit Fakeanmeldungen erkannt werden.
  • Personalisierung von Inhalten: Mithilfe vonAmazons Machine Learning (http://einfach.st/amaz4) kann eine Website eine besser personalisierte Kundenerfahrung bieten, indem prädiktive Analysemodelle verwendet werden, um Artikel vorzuschlagen oder den Website-Ablauf auf der Grundlage vorheriger Kundenaktionen zu optimieren.
  • Dokumentenklassifizierung: Die Verarbeitung unstrukturierter Texte ist eine besondere Stärke der KNN. So können beispielsweise Produktrezensionen als positiv, negativ oder neutral eingestuft werden oder bei Bedarf der Autor eines beliebigen Textes ermittelt werden.
  • ChatBots und Inbox Autoresponder: Für die Funktion des „Smart Reply“ in Googles Inbox-App (https://www.google.com/inbox/), welche erst kürzlich vorgestellt wurde, trainierte Google ein rückgekoppeltes neuronales Netz mit Millionen und Abermillionen von E-Mails und deren Antworten und kann nun zu jeder E-Mail passende Antwortmöglichkeiten vorschlagen. Schwierig bei der Entwicklung war laut Google der Fakt, dass die Entwickler aus Datenschutzgründen selbst keinen Zugriff auf die E-Mails haben durften und so quasi blind das System anlernen mussten.
  • Autonome Finanzagenten: Automatische Systeme lesen Unternehmensnachrichten und reagieren in Echtzeit auf gute Nachrichten mit Aktienkäufen oder auf schlechte Nachrichten mit Verkäufen. So konnte ein einzelner Bot 2,4 Millionen US-Dollar Gewinne erwirtschaften, indem er Sekunden nach der Veröffentlichung von Übernahmegerüchten durch Intel Aktien der Firma Altera kaufte.

Eine neuronale Revolution? Warum erst jetzt?

Der große Durchbruch gelang 2007 dem britischen Professor Geoffrey Hinton an der Universität Toronto. Er nahm sich des alten Problems der neuronalen Netze an und löste es. Das von ihm eingesetzte Backpropagation-Lernverfahren mit mehreren Netzwerken (Back Propagation through time) gab es zwar bereits und es wurde zum Beginn der 1980-Jahre auch mathematisch gut verstanden, aber das Zusammensetzen dieser Funktionsprinzipien zu etwas Funktionierendem bekam erst Geoffrey Hinton so richtig in den Griff.

So konnte er auf einen Schlag gigantische Verbesserungen erzielen. Seine von ein paar Studenten zusammengebauten und angelernten Netze waren auf Anhieb besser als alles, was die Support-Vektor-Maschinen nach 30-jähriger Optimierung zu leisten imstande waren. Sein Verfahren, das sog. „Deep Learning“ auf Basis künstlicher neuronaler Netze, ist so viel besser als alles andere und dabei auch noch so viel einfacher, dass es heute für die meisten Bereiche des maschinellen Lernens verwendet wird.

State of the Art – Deep Learning

Hinton setzte bei der Bilderkennung beispielsweise künstliche neuronale Netze (KNN) mit mehreren Hundert oder Tausend Ebenen ein, die nach oben hin aus immer weniger Neuronen bestehen. Diese Netze können so von der komplexen Eingangsschicht nach oben zur einfachen Ausgangsschicht immer besser abstrahieren.

Die erste Schicht erkennt nur einzelne Bildpunkte und deren Farbe, die Ebene darüber verbindet Pixel (zum Beispiel zwei schwarze Bildpunkte zu einem Strich). Darüber folgen Schichten, die aus den Strichen Objekte kombinieren, und so durchläuft die Information Schicht für Schicht nach oben bis zur Ausgabe von Gesichtern oder Gegenständen.

Der Vorteil dieser Methode: Die Antwort erfolgt rasend schnell. Aber das Training dafür dauert relativ lange und man benötigt viele Trainingsdaten. Die bislang verwendeten Support-Vektor-Maschinen sind im Ergebnis fast gleich gut, aber man muss vorher die wichtigen und relevanten Teile der Daten heraussuchen. Es muss manuell festgelegt werden, was von Bedeutung ist und was nicht. Das sogenannte Feature Engineering war letztlich auch die klassische Herangehensweise Googles an die Konstruktion von Algorithmen. Doch Deep Learning ermöglicht eine vollkommen neue Art des Trainings.

Unsupervised Deep Learning ist eine echte Revolution

Hier müssen nun nicht mehr Menschen das Problem vorher genau analysieren und zerlegen, sondern es reicht, einfach nur die Daten und das gewünschte Ergebnis in das Netzwerk zu geben und der Computer löst das Problem selbst. Neuronale Netzwerke erkennen und lernen jetzt von selbst, welche Features wichtig sind und welche nicht. Und das automatisch und ohne menschliche Eingriffe!

Wie gut diese Methode mittlerweile funktioniert, lässt sich auch an Stanfords „Natural Language Parser“ deutlich machen. Dieser wurde 25 Jahre lang von den besten Linguisten entwickelt, ständig verbessert und erweitert. In der neuen Version wurde der alte Code vollständig durch ein neuronales Netzwerk ersetzt. Ein selbstlernendes Netzwerk muss nichts über Grammatik oder Sprache wissen und funktioniert somit auch in jeder beliebigen Sprache. Man braucht nicht einmal mehr Spezialisten oder eigene lokale Teams. Es reicht aus, eine große Textmenge in das Netzwerk zu geben und es daraus lernen zu lassen. Menschliche Sprache folgt bestimmten Regeln und bildet daher bestimmte Strukturen aus. Diese müssen sich dann von ganz allein in den verschiedenen Ebenen des neuronalen Netzes abbilden.

Google und Geoffrey Hinton

Google wurde 2007 auf Geoffrey Hinton und seine Erkenntnisse aufmerksam und lud ihn zu einer Vorlesung ein, um seinen Durchbruch den Google-Mitarbeitern nahezubringen. Diese erkannten sofort das Potenzial, das diese Technologie für die eigenen Dienste bereithielt, und so versuchte man mehrfach erfolglos, Hinton an Bord zu holen. Erst als man dem Professor schließlich Zugriff auf Googles Daten und nahezu unbegrenzte Rechenpower in Aussicht stellte, konnte dieser zumindest als Teilzeitmitarbeiter gewonnen werden.

Video-Tipps

Google lernt tatsächlich, menschliche Aktionen zu verstehen

Google schickt seinen Algorithmus zur Schule. Was vielleicht etwas flapsig klingt, wird in den letzten Monaten immer mehr zur Realität. Die Maschine versucht, eine Suchanfrage inhaltlich zu verstehen und weniger ein Keyword mit dem invertierten Index einer Datenbank abzugleichen. Ein Text wird quasi in ein mathematisches Geflecht von Vektoren umgewandelt und Beziehungen der Worte über Winkel und Entfernungen zueinander berechnet. Die Antwort auf die Frage „Bekanntester Film von George Lucas?“ ist demnach keine Auflistung persönlicher Informationen zu George Lucas oder genereller Dokumente zu generell bekannten Filmen, sondern eindeutig: „Star Wars.“ Das Zeitalter der Optimierung auf einzelne Keywords dürfte damit spätestens seit Hummingbird Geschichte sein.

Darüber hinaus wird auf Lokalität und Aktualität geachtet. Eine Suche nach der Star-Wars-Premiere liefert folgerichtig die Spielzeiten des nächstliegenden Kinos des Suchenden sowie brandaktuelle Kritiken, Bilder und Trailer zum aktuellen Film. Die Premiere bzw. Kritiken der letzten Episode bzw. Spielzeiten der Premieren in Berlin sind höchstwahrscheinlich für die breite Masse nicht relevant. Google denkt langsam, aber sicher mit – selbstverständlich auch zum Selbstzweck, dass die Menschen wegen der ständig besseren Ergebnisse Google anderen Suchmaschinen vorziehen.

Bereits bei Google Suggest wird sofort versucht, den Besucher schnellstmöglich auf die richtige Zielseite zu bringen. Mehrdeutige Begriffe, was für Google aus technischer Sicht eigene Entitäten sind, werden explizit vorgeschlagen (Abbildung 4).

Warum setzt Google maschinelles Lernen bzw. RankBrain ein?

Google befasst sich bereits seit vielen Jahren mit Machine Learning und der Anwendung im Text- und Sprachverständnis (bspw. Word2vec als Open Source zum maschinellen Erlernen von Wortbedeutungen http://einfach.st/gmach2). Es war abzusehen, dass ein weiteres System, welches auf maschinellem Lernen fußt – RankBrain – im Oktober 2015 nun auch offiziell bestätigt wurde. Panda basiert ebenfalls auf maschinellem Lernen und erlebt in verschiedenen Updates eine permanente Weiterentwicklung, vergleichbar mit einem Grundschüler, der geistig beständig in Richtung Gymnasium geht – unpräzises Wissen wird zu Detailwissen. Anwendungen wie Google Now bzw. die Suche in den eigenen Bildern bei Google Fotos zeigt aktuelle Ansätze dieser Lernverfahren.

Basierend auf umfassend vorliegenden Rohdaten (Bild, Text, Sprache, Videos etc.) müssen zur Effektivitäts- und Effizienzsteigerung Lernverfahren eingesetzt werden, welche den Algorithmus permanent weiterentwickeln – im Idealfall ohne die Notwendigkeit eines Inputs über maßgebliche Bewertungsverfahren. Jeff Dean von Google bestätigte bereits 2014, dass nicht für jede Aufgabe ein eigener Algorithmus eingesetzt werden kann bzw. der Entwicklungsaufwand minimiert werden soll. Ein „Reagieren“ durch einen von Menschen entwickelten Algorithmus ist logischerweise langsamer und aufwendiger als ein automatisiertes, autarkes Agieren auf Basis sich ändernder Muster. Spam kann dadurch schneller bekämpft werden bzw. relevante Seiten können besser identifiziert werden. Schnelle Entwicklungsergebnisse der Programmierer bis hin zu Realtime-Modifikation wären damit langfristig denkbar. Ein Tipp: Die Präsentation von Jeff Dean zu Deep Learning unter einfach.st/deepl3 ist wirklich sehenswert.

Beim Lernen geht es im Grunde immer um Beziehungen. Die Verbindung zwischen den Wörtern ist notwendige Voraussetzung für das Verständnis des Inhalts. Unbekanntes kann anschließend durch Analogien erschlossen werden. Mittels mathematischer Verfahren (Vektoren) können Wörter im n-dimensionalen Raum abgebildet werden. Dieses theoretische Konstrukt erlaubt, mittels Beziehungen bzw. Logik Wissen und Analogien zu generieren und abzurufen. Basierend auf den Beziehungen in Abbildung 6 ergibt sich bspw. Paris – France + Italy = Rome. Das System wird durch weitere Informationen permanent intelligenter und kann letztendlich bei Unbekanntem einen „educated guess“ abliefern. Apropos maschinelle Intelligenz: Das System lernt, was es als Input erhält, und so kann auch die Bratwurst typsicherweise Germany zugeordnet werden.

RankBrain – Googles Antwort für Neues und Vages

Schon immer wurden seitens Google große Anstrengungen unternommen, den bestehenden Content, mit all seinen Facetten, besser zu verstehen. Neben der Bilderkennung (inkl. Video) war dies insbesondere der Themenbereich Sprachen und Übersetzungen. Die Möglichkeiten der künstlichen Intelligenz wurden dabei sukzessive weiterentwickelt und finden nun auch im Bereich der Suche Widerhall. In einem Bloomberg-Video (http://einfach.st/bloom3) bestätigte ein Google-Mitarbeiter (Greg Corrado, Senior Research Scientist), dass „ein großer Anteil“ der Suchen von einem System, basierend auf künstlicher Intelligenz mit Namen RankBrain, interpretiert und damit beeinflusst werden. Die Maschine, bzw. dieser neue Teil im Google-Algorithmus, kann bei neuartigen oder unzureichenden Informationen in einer Suchphrase eine Vermutung über deren Bedeutung anstellen. Im Grunde kann das System auf ein riesiges Textarchiv (exakter: Entitäten mit mehreren Schichten) zurückgreifen, die in logischer Verbindung zueinander stehen. Sie agieren wie Menschen, die sich auf den Erfahrungsschatz bzw. gelernte Muster berufen.

Genauer gesagt erfolgen Aktivitäten der Neuronen im Gehirn, welche kontinuierlich neue Verbindungen zueinander erzeugen und dabei einzelne Bahnen verstärken (siehe im Vergleich Abbildung 7).

15 % der täglichen Suchphrasen hat Google vorher noch nie gesehen!

Warum das Ganze? Google hat enorm viele Nutzerdaten und kann ein Suchergebnis anhand dieser sehr gut beurteilen. Ja, aber 15 % der täglichen Suchphrasen sind selbst für Google komplett neu (was schätzungsweise 450 Millionen Suchen pro Tag sind). Schaut man sich die Fragen an, die über die Webanalysesysteme noch angezeigt werden, ist das auch nicht weiter verwunderlich. Menschen tippen sehr lange Fragen ein, sind nicht immer der Rechtschreibung mächtig, nutzen Abkürzungen bzw. regionale Begriffe, schaffen immer wieder neue Wortschöpfungen etc. Google Suggest liefert heute schon eine Idee, was Menschen alles bei Google eingeben bzw. erwarten (Abbildung 8).

PageRank: Linksignale – RankBrain: Contentsignale?

Obwohl zu RankBrain seitens Google bisher nichts veröffentlicht wurde, lassen Patente (siehe z. B. einfach.st/gpat9), Expertenmeinungen und generelle Funktionsweisen von maschinellem Lernen im Information-Retrieval-Umfeld einige begründete Vermutungen zu.

Ähnlich wie George Clooney wird Google gezwungen, einen „educated guess“ über die eigentliche Nutzungsintention des Besuchers zu liefern. Die Vermutung über den Kern der Frage wird anhand von Analogien in der Sprache auf Wort- bzw. Phrasenebene berechnet (mittels der Vektoren über diverse Ebenen) und beeinflusst damit mittelbar das Suchergebnis massiv. Überwiegend bei Longtail-Suchbegriffen soll RankBrain zunächst großen Nutzen bringen. Damit werden Menschen, die mobil suchen und weniger Zeit für aktives Suchen haben, langfristig mit besseren Ergebnissen versorgt und dann auch in Zukunft weiterhin Google nutzen. Nachdem die mobilen Suchen 2015 die stationären Suchen übertrafen, ist das ein Muss für eine Suchmaschine: bessere Ergebnisse in einer mobilen Umgebung unter einem geänderten Suchverhalten bzw. Informationskonsumverhalten. Facebook setzt für den gefilterten Newsfeed ebenfalls künstliche Intelligenz ein, da ansonsten ein durchschnittlicher Facebook-Nutzer 1.500 Meldungen im Feed hätte, bei mehreren Hundert Freunden bis zu 10.000.

RankBrain als „Vermittler“ neuartiger Fragen

Der Unterschied dieser Weiterentwicklung zum bestehenden Algorithmus ist immens. War das bisherige Suchergebnis abhängig vom Datenbankwissen bzw. der Erfahrung/den Erkenntnissen der Entwickler, lernt das Subsystem RankBrain ständig hinzu und erzeugt kontinuierlich neue Querverbindungen und Analogien innerhalb der Daten – gerade für unbekannte Suchanfragen ist dies unerlässlich. Diese Querverbindungen schaffen es somit, die Suchphrase besser zu deuten und damit die Datenbankabfragen zielgerichteter auszuführen. Ein Teil der Entwicklungsintelligenz wird direkt auf die Maschinen verlagert. RankBrain kann als Bindeglied verstanden werden, welches die Sprache der Besucher mit der im invertierten Index der Suchmaschine in Einklang bringt. Bevor die eigentliche Suchphrase an die Datenbank weitergereicht wird, wird sie damit in eine „passende“ Sprache überführt – der Kern der Suchphrase wird verstanden und das Ergebnis ist damit zwangsläufig besser. Die Suchphrase nach dem „Ehemann von Jessica Olsson“ hätte früher wahrscheinlich Dokumente zu Ehemann bzw. Jessica Olsson zurückgegeben. Heutzutage versteht die Maschine die Zusammenhänge und kann die richtige Antwort liefern. Für Menschen ist intuitiv klar, wie die „süße, gelbe, gebogene Frucht, die am Anfang noch ganz grün ist“ heißt, die Maschine muss dies mittels Vektoren mathematisch herleiten bzw. letztendlich im Laufe der Zeit durch Wort-Sinn-Verknüpfungen erlernen. Das heißt, das System muss permanent mit historischen Suchphrasen und entsprechenden Ergebnissen gefüttert werden – kombiniert mit Synonymen und Homonymen. Sofern RankBrain als vorgelagertes System den perfekten Match zwischen übersetzter Suchphrase und gespeicherten Termen der Dokumente schafft, ist das erhaltene Ergebnis für den Besucher phänomenal. RankBrain liefert vereinfacht gesagt die Suchphrase „Banane“ anstelle der komplexen Suche und bekommt damit hoffentlich die relevanten Dokumente, Bilder und Videos zur eigentlichen Frage. Durch künstliche Intelligenz hat RankBrain langfristig die Chance, die Intention mit hoher statistischer Wahrscheinlichkeit abzuleiten und damit an die Suchmaschine die „richtige“ Frage zu stellen. Hier steht Google noch am Anfang und muss tatsächlich noch viel lernen – so wie auch Dirk Nowitzki nicht mit 2,13 Metern Körpergröße zur Welt kam.

Sucht man – ohne die Lebensumstände zu kennen – nach der Frau von Guido Westerwelle, bringt Google korrekt seinen Ehemann Michael Mronz als Ergebnis (Abbildung 11). Dies zeigt noch mal deutlich den Unterschied: Es werden nicht textuelle Einträge auf Webseiten gesucht, welche die Worte „Frau von“ und „Westerwelle“ enthalten. Die dürfte es vernünftigerweise nicht geben. Da Westerwelle als Persönlichkeit bekannt und sein Mann ein bekannter Sportmanager ist, haben beide mit Sicherheit bei Google „Entitäten“-Status, d. h., sie werden als eindeutige Objekte verwaltet. Über entsprechende Attribute einer „Lebenspartnerschaft“ sind beide als verbunden gekennzeichnet. Unter diesem Oberbegriff Lebenspartnerschaft können dann geschlechtsneutral sowohl Ehen als auch ein festes Zusammenleben subsumiert werden. Das bringt vielerlei Vorteile und erlaubt unter anderem auch 1:n- oder n:m-Beziehungen, was je nach Liberalität eines Landes und den Vorstellungen des Zusammenlebens einzelner Menschen alles erlaubt –- ohne einschränkende Denkbarrieren.     

Abbildung 12 zeigt schematisch, welche Vorteile Entitäten und deren Verbindungen bieten. Das Wort „Zug“ kann mehrere Bedeutungen tragen. Zum einen kann es der Zug sein, in den man am Bahnhof einsteigt. Es könnte aber auch der Eishockeyverein EV Zug gemeint sein oder der Kanton Zug in der Schweiz. Durch die Zuordnung des Wortes Zug zu unterschiedlichen Entitäten lassen sich Gemeinsamkeiten, aber vor allem auch Unterschiede maschinell feststellen. Hinter einer eindeutigen Entität liegt also nicht der Zug generell, sondern quasi die jeweils unterschiedliche Bedeutung, der das Wort Zug „nur“ zugeordnet ist. Dabei können Worte sowohl als Attribut einer Entität zugeordnet sein, als auch selbst eine Entität sein.

Sieht man sich das Beziehungsgeflecht aus dem Eisenbahnumfeld (links unten in Abbildung 12) an, wird deutlich, dass mit dieser Zuordnung die jeweilige Sprache in den Hintergrund tritt. So werden inhaltliche Erkennungen sogar sprachunabhängig ermöglicht oder bessere Übersetzungen, sofern die Datenbasis groß genug ist. Der „Kanton“ Zug hat auch einen Bahnhof, auf dem der „andere“ Zug eine wichtige Rolle spielt. Über Beziehungsgraphen, die ausweisen, wie weit Entitäten voneinander entfernt sind, lässt sich auch das maschinell auseinanderhalten – oder es lassen sich eben bei Bedarf gezielt einzelne Zusammenhänge herstellen. Wer sich schon mit sog. holistischer Contentoptimierung (Stichwort WDF*IDF) beschäftigte, wird hier unschwer sofort Zusammenhänge erkennen können. Über die Verbindungen der Entitäten kann eine Maschine bei voller Datenbank natürlich sofort feststellen, welche Begriffsnähe das Thema einer Webseite zu wichtigen anderen Begriffen hat oder ob z. B. die textliche oder bildliche Erwähnung des Wortes „Zug“ in keinem besonderen Zusammenhang zu den wichtigsten Entitäten steht. 

Ranking-„Fehler“ für eine Webseite, die sich mit dem Bahnhof im Kanton Zug beschäftigt, kann es nach dem Entitätenmodell nicht mehr geben. Die Seite taucht weder für „Kanton Zug“ noch für „Bahnhof“ in den Suchergebnissen auf. Wer nach dem Zug in Zug sucht, wird hingegen fündig, weil beide Entitäten (Ort Kanton Zug und über Bahnhof die Verbindung zu „Zug“) auf der Seite über die notwendigen Relationen identifizierbar sind. 

Info

RankBrain ist streng genommen im klassischen Verständnis eigentlich gar kein Rankingsignal, obwohl Greg Corrado es als solches bezeichnete. Es versucht, bestimmte eingetippte Suchphrasen über den Rückgriff auf vorhandene Entitäten zu verstehen, und stellt also aktuell eine Art Übersetzer dar, der die modifizierten Begriffe dann an den sog. Query-Prozessor übergibt.

Quantencomputer machen künftig Notwendiges berechenbar

Natürlich ist einzusehen, dass ein kompletter Aufbau einer Entitätendatenbank und vor allem die ständige Aktualisierung und Neuberechnung aller Beziehungen beim Auftreten neuer Entitäten derzeit noch nicht darstellbar sind. Dazu kämen noch das Umrechnen aller weit über 50.000 Suchanfragen pro Sekunde und der Abgleich mit allen infrage kommenden Entitätseinträgen und Beziehungen.

Die Lösung für dieses Problem liegt in der Nutzung von Quantencomputern. Und so ist es kein Wunder, dass Google auch hier ganz vorn und in treibender Rolle mitspielt. Bereits vor einigen Jahren arbeitete man dort mit einem Expertenteam an der Entwicklung von Quantenalgorithmen. Die Programmiersprachen und das Paradigma dahinter (Zustände 0 oder 1) sind auf Quantencomputern nämlich gar nicht anwendbar. Letztere können theoretisch alle Zustände zwischen 0 und 1 gleichzeitig annehmen und daher auch schätzungsweise bei bestimmten Anwendungen bis zu 100 Mio. mal schneller rechnen. 2011 kaufte Google Deep Mind für 365 Mio. US$; wie es aussieht, könnte sich das als wahres Schnäppchen erweisen. Deep Mind entwickelte u. a. Google Now mit. Aktuell arbeitet man dort an einer Art Kurzzeitgedächtnis, das dem des Menschen nachempfunden ist.  

Seit letztem Jahr ist es nun so weit: Die Forscher, allen voran Hartmut Neven, Leiter des Quantum Artificial Intelligence Laboratory bei Google, verkündeten zusammen mit der NASA: Quantencomputer funktionieren! Ähnlich wie beim Gedankenspiel mit Schrödingers Katze, die gleichzeitig tot und am Leben ist, können Quantencomputer auch mehrere sich überlagernde Zustände gleichzeitig berechnen. Damit können sie die reale Welt eben sehr viel besser abbilden als herkömmliche Computer, die nur mit zwei Zuständen arbeiten können. Solche „einfachen“ Zustände bilden die Natur nicht annähernd hinreichend ab, so Richard Feynman, einer der Väter der Quantenphysik. Neven bezeichnete die Quantenphysik sogar als Betriebssystem der Natur, was vielleicht für Laien etwas deutlicher macht, wie viel näher man sich mit dem neuen Computertyp an die Realität heranrechnen kann. Durch Quantencomputing kann man über neuronale Netze die Funktionsweise des menschlichen Gehirns besser abbilden. Dort feuern bei bestimmten Reizen ja mehrere variabel über Lernen verknüpfte Neuronen und ab einem bestimmten gelernten (!) Schwellwert wird das Signal eine Stufe weitergegeben. Dafür ist ein Quantencomputer geradezu geschaffen – alle diese Berechnungen bzw. eben auch Simulationen wirklich gleichzeitig ablaufen zu lassen. Herkömmliche Computer sind zwar schnell, können aber im Kern eben alles nur nacheinander rechnen.

Ein Baby muss niemand lehren, wie man „hört“ oder „sieht“ und Gegenstände erkennt. Das passiert ganz natürlich, indem sich im Gehirn Neuronen miteinander verbinden und durch Aktion – Reaktion diese Verbindungen verstärken oder wieder auflösen. Exakt dies passiert auch in den neuen neuronalen Netzen. Der Computer „lernt“ ohne vorherige Regeln. So schaffte Google es mit der DeepMind-Software z. B., dass Computer über solche neuronalen Netze von selbst lernten, wie die alten Atari-Spiele wie Breakout oder Space Invaders funktionieren. Die künstliche Intelligenz drehte einfach so lange (virtuell bzw. im Hauptspeicher) an den jeweils verfügbaren Reglern herum und maß die Reaktion des Spiels, bis sie alle Spiele fehlerfrei bis zum Ende durchspielen konnte. Wer diese Spiele kennt, der weiß, dass alle komplett anders aufgebaut sind und unterschiedlich funktionieren. Der Computer lernte bzw. erkundete selbstständig, wie die Regeln aufgebaut sind – ohne jede Vorgabe! Damit hätte man „a general-learning algorithm that should be applicable to many other tasks”, meinte Koray Kavukcuoglu von Google. Gibt es in unseren Köpfen verborgene Regeln, nach denen wir entscheiden, ob eine Webseite nützlich ist oder nicht? Wenn ja, wird man diesen in jedem Fall mit solchen Methoden deutlich näherkommen können.  

Der erste Quantenchip selbst ist übrigens kaum daumennagelgroß und wurde von D-Wave entwickelt, die u. a. von Jeff Bezos (Amazon) und einer Tarnfirma der CIA finanziert werden. Und, ach ja – man stehe dabei noch ganz am Anfang, betonen die Forscher. Wer sich den Stand der Computer von vor 50 Jahren vergegenwärtigt und was seither passiert ist, kann vielleicht abschätzen, welche Explosion an Geschwindigkeit und Komplexitätsberechnung da auf uns zukommt. Und schon vor der Serienreife des ersten Quantencomputers kaufte sich Google die nötigen Spezialisten ein und arbeitet schon präventiv in Eigenregie an der Entwicklung noch besserer Quantencomputer.

Fokussierung auf Themen und messbare Kompetenz

Marketers sollten sich also darauf einstellen, dass sich die Spielregeln in vielleicht gar nicht allzu ferner Zukunft ändern, denn das Zusammenspiel von Machine Learning mit neuronalen Netzen und Quantencomputern bringt wohl einen heute noch unvorstellbaren „Intelligenz“-Schub für Google & Co.

Websitebesucher suchen in der Regel so lange, bis sie ihr Informationsbedürfnis gestillt haben. Typsicherweise tauchen während der Recherche bzw. des Konsumierens von Content weitere Fragen auf, die es ebenfalls zu beantworten gilt. Im Idealfall ist dabei kein weiteres „Googeln“ notwendig bzw. es sollte vermieden werden, dass durch fehlende Informationen ein Mitbewerber in das Relevant-Set des Besuchers kommt. Die abschließende Befriedigung einer Suchintention sollte durch den Content einer Webseite, am besten der eigenen, möglich sein. Wird nach „Star Wars“ gesucht, sollte in einem umfassenden Bericht auf jeden Fall „Jedi“, „Anakin“ oder „Darth Vader“ vorkommen. Das würden wir als Menschen erwarten und letztendlich auch die Maschine. Die eigene Webseite sollte daher immer zu einem Thema eine Autorität sein, so wie wir auch auf Aussagen von Ärzten als Autorität vertrauen. Welche Fragen werden Kunden im Themengebiet wohl als Nächstes stellen? Der Content bzw. die entsprechende interne Verlinkung sollte damit bereits passende Fragen und Antworten vorsehen, die der Suchende in der aktuellen Suchphase noch gar nicht stellt. Ein guter Arzt kennt die nächsten Fragen seiner Patienten, wenn sie eine Diagnose erhalten – so sollte auch Content im Web aufgebaut sein.

Brands haben durch RankBrain eine weitere große Chance: Sobald das System gelernt hat, dass bei bestimmten Fragetypen eine entsprechende Marke bzw. Website die perfekte Antwort war, könnte dies auch bei unbekannten Fragen ggf. als Lösungsvorschlag in Betracht gezogen werden. Panda und Penguin bestrafen Webmaster für unzureichenden Content bzw. Linkspam. RankBrain versorgt im Gegensatz Webmaster von gutem Content mit hoch relevanten Suchanfragen bzw. Besuchern. In Summe wird dadurch ein höheres qualitatives Niveau der Suchergebnisse zu erwarten sein: Die Suchphrase wird inhaltlich verstanden, auf dem spambereinigten qualitativ hochwertigen Content wird eine entsprechend zugeschnittene Suchphrase platziert, bevor letztlich für das individuelle Ranking relevante Filter (lokal, aktuell, mobil etc.) angewandt werden. Backlinks sollte sich der Content verdienen, sie sollten nicht manuell von Linkbuildern gesetzt werden: Qualität erntet Link statt Link übertüncht Qualitätsmanko.

Daher könnte bspw. verteilter Content thematisch aggregiert werden bzw. bestehender Content auf Erweiterung bzw. Themenrelevanz überprüft werden (W-Fragen, Proof Keywords, verwandte Suchanfragen). Vor dem Hintergrund der Nutzersignale wäre es ideal, wenn die eigene Webseite durch die Besucher später nochmals besucht würde: „Unter allen Seiten ist diese die beste.“ Denkbar ist auch eine tiefere algorithmische Anpassung der nachfolgenden Suchergebnisse, basierend auf den besuchten Dokumenten, da sich bspw. Dokumente gegenseitig ergänzen. Microdata bzw. Schema.org ist damit immer noch hilfreich und sollte auf jeden Fall auf der To-do-Liste eines SEOs stehen.

Tipp: Alchemy API analysiert eine URL und liefert potenzielle Entitäten innerhalb des Dokuments. Die Links zu dbpedia eröffnen weiterführenden Content zum Themenbereich bzw. zur Entität und sind damit ein idealer Ausgangspunkt für die Erweiterung bzw. Fokussierung des Themas.

Nutzersignale als Elementarfaktor für maschinelles Lernen

Sofern ein Kind auf eine heiße Herdplatte fasst, wird es die Hand schnellstmöglich zurückziehen und im Idealfall daraus lernen. Aus einem Input bzw. Impuls ist eine Reaktion (gut/schlecht) erkennbar und demnach auch für die Zukunft prognostizierbar. Überlegt das Kind, nochmals auf die Platte zu fassen, wird die Reaktion klar sein. Diese „Schmerzen“ durchläuft sinnbildlich auch eine Maschine: Content wird durch Algorithmus bewertet und dem Nutzer ausgespielt. Wenn ein Suchergebnis für die entsprechende Position in der SERP eine höhere als die erwartete CTR hat und der Besucher anschließend eine entsprechende Verweildauer aufzeigt, wird er ein positives Nutzererlebnis haben. Eine Belohnung in Form konstanten Rankings bzw. einer Steigerung ist wahrscheinlich.

Anderenfalls wird der Besucher sich bildhaft gesprochen am „Content die Finger verbrannt haben“ und schnellstmöglich ein anderes Suchergebnis ansteuern (Bounce/Return to SERP). Die Maschine kann permanent in den gesammelten Daten bzw. dem ausgespielten Content nach Mustern suchen, die auf ein voraussichtlich gutes bzw. schlechtes Ergebnis hinweisen (das Ergebnis aus Nutzersicht liegt vor). Die manuellen Einschätzungen durch Quality Rater helfen, guten von schlechtem Content zu unterscheiden (siehe aktuelle Rating Guidelines als PDF unter einfach.st/gooinside3). Weitere Tests mit dem bestehenden bzw. ähnlichen Content (Near Duplicate Content) sind dann letztendlich nicht notwendig, um das voraussichtliche Nutzerverhalten abzuleiten. Der Content muss demnach seine Rankings kontinuierlich behaupten, indem er die Nutzererwartungen trifft bzw. im Idealfall übertrifft. Inhaltliche Erweiterungen bzw. Aktualisierungen des Contents sind damit ein notwendiger Bestandteil einer Rankingsicherung (siehe bspw. Artikel zu Content-Audit in WSB #35).

Tipp: Obwohl Social Media lt. Google nicht zum Ranking herangezogen werden, lohnt ein Blick in Tools wie Buzzsumo oder Talkwalker, um aktuelle Themen bzw. meistgeteilte Themen der Mitbewerber zu analysieren. Was treibt Nutzer um?

Ein Blick über den Tellerrand hinaus zeigt jedoch, welche Möglichkeiten sich langfristig abzeichnen könnten – nicht 2016, aber durchaus in naher Zukunft.

Die Rankingalgorithmen werden dynamischer und beliebig komplex

Die Google Engineers können zum Teil schon aktuell nicht mehr eindeutig voraussagen, wie welches der vielen Signale sich in Kombination mit Filtern und anderen Signalen tatsächlich auf das Ranking einer Webseite auswirkt. Die Komplexität ist dabei so hoch, dass ein einziger Mensch sie in Summe nicht mehr gedanklich nachvollziehen kann. Beim Deep Learning wird sich dies sicher noch verstärken. Die Maschine sucht ständig nach neuen Mustern, die einen Hinweis auf gut oder schlecht bringen können, und gebiert praktisch ständig neue Signale, die bisher noch niemand auf dem Schirm hatte.

Basierend auf der Idee, dass es den (einen) Algorithmus nicht mehr gibt, sondern ein permanent selbstlernendes System, werden die Innovationszyklen bei Google wahrscheinlich noch schneller und spezifischer vorangehen. So können z. B. spezielle Spam-Muster in einem Sprachraum erkannt werden, obwohl diese von der „Haussprache“ Englisch abweicht. Über den Abgleich von Entitäten wird dies weitgehend mit tatsächlich verwendeten Begriffen möglich (siehe Abbildung 12). Ein klassischer Rollout von USA/UK (Englisch) in die jeweiligen Sprachen wäre damit künftig obsolet. Es könnten umgekehrt sogar Signale aus anderen Sprachen eine Modifikation im Kernmarkt bewirken. Änderungen würden damit schneller global aktiv, oder es könnten auch ganz spezifische länder- bzw. ortsspezifische Muster zum Tragen kommen.

Spam- und Blackhat-SEO wird automatisch bekämpft

Der Vorteil von Machine Learning ist zusammenfassend darin zu sehen, dass permanent neue Verknüpfungen in den Daten entstehen. Dabei kommt insbesondere Mustern bzw. schwachen Signalen eine große Bedeutung zu, da diese erkannt und weiterentwickelt werden können. Genauso wie die Maschine lernt, eine Sprache zu verstehen, können auch Spam- und Blackhat-Techniken noch besser durch die Maschine über die Muster erkannt werden. Analysiert bspw. eine Maschine die Texte einer Website, so ist schon anhand des Sprachstils und der verwendeten Wörter ableitbar, ob es sich um Gastartikel handelt oder nicht. Künftig könnte es sogar möglich sein, einen Autor, der genügend publiziert hat, an seinem ganz persönlichen Sprachstil zu identifizieren. In kleinem Umfang geht dies übrigens schon heute. Sollte ein solcher Artikel damit identisch gewertet werden, wie der Rest der Seite? Hierzu wird es künftig sicherlich jede Menge Spekulationen geben.

Was sind die Implikationen für strategisches SEO?

Lange wird es wohl nicht mehr dauern, bis ganz generell aus Sucheingaben wie „Wie groß ist Dirk Nowitzki?“ eine interne Umwandlung in <Entity:Nowitzki_Dirk>.<Property:Height> stattfindet und statt eines Textvergleichs das Ergebnis aus Entitäten und ihren Beziehungen gezogen wird. Das bedingt, dass Webseiten ebenfalls in Entitäten „zerlegt“ werden. Oder ist das bei Google vielleicht schon in vollem Gange?

Aus Webtexten wie „Nowitzki ist 2,13 m groß“, „Dirk Nowitzki ist Basketballspieler“, „Jessica Olsson ist verheiratet mit Dirk Nowitzki“ und „Basketball = Sport“ wird die echte Erkennung der zugrunde liegenden Informationen über die Größe, den Lebenspartner, die berufliche Tätigkeit und in welche Kategorie diese fällt.

Dies bedeutet auch, dass für immer mehr sog. Informational Searches, also Suchanfragen, die eine Information als Antwort erwarten, Google die Suchenden immer seltener auf Websites schicken muss, um diese Fragen zu beantworten. In Ansätzen ist da ja heute schon so. Die Frage nach dem Wetter morgen in Frankfurt wird von modernen Smartphone-Betriebssystemen ja schon heute direkt beantwortet – ohne den Umweg über einen Ergebnisklick und das „Selbst-auf-der-Seite-Raussuchen“. Am Ende könnten also langfristig nur noch Navigational (Suche nach Websites oder Unternehmen/Marken) und Transactional Searches („ich will aktiv etwas tun“) als Trafficlieferanten für Websitebetreiber übrig bleiben. Und selbst das kann in Zukunft mehr und mehr obsolet werden. Dann genügt die geäußerte Aufforderung „Buch mir den günstigsten Flug am 15. Juni nach Hamburg, mein Termin beim Ottoversand geht von 10 bis 14 Uhr“ und eine Maschine – Google? – sucht nach der besten Problemlösung und wickelt alle nötigen Transaktionen ab – für eine Gebühr gegenüber den beteiligten Transportunternehmen. Wird dies dann vielleicht sogar das neue AdWords? Sind transaktionale Websites vielleicht sogar ein Auslaufmodel, weil die Menschen gar nicht mehr selbst suchen (möchten) und nur noch Maschinen miteinander über Clearingstellen – Google? – kommunizieren und Transaktionen abschließen? Bis dahin ist sicher noch ein weiter Weg – nachdenklich macht dies aber schon.

Für Websitebetreiber heute gilt: Wer austauschbar ist und ohne echtes bzw. eigenes Know-how Informationen und keinen Mehrwert gegenüber allgemein zugänglichen Aussagen anbietet, wird wohl zu den großen Verlierern zählen. Umgekehrt werden sicherlich diejenigen als von Google vermittelte Anlaufstelle im Web dominieren, die es schaffen, sich wirklich auch maschinell erkennbar holistisch zu bestimmten Themen darzustellen. Ach ja – die Zeiten, in denen man sich per Linkeinkauf Google gegenüber hübscher darstellt, als man wirklich ist, dürften dann wohl auch absehbar einem Ende entgegengehen – auch wenn Links heute noch mit zu den wichtigsten Rankingfaktoren zählen. „Beliebtheit“ durch künstliche Links zu simulieren, geht vergleichsweise einfach und schnell. Überzeugenden Content zu produzieren bei Weitem hingegen nicht. Wer sich damit schon heute wirklich ernsthaft auseinandersetzt, ist nicht nur für die Zukunft bestens gerüstet, sondern kann bereits heute durch verbesserte Rankings davon profitieren.

RankBrain erzielt nach Angaben von Google Ergebnisse, die die Erwartungen übertreffen. Verdeckte Vergleichstests hätten laut Greg Corrado gezeigt, dass sich die Ergebnisse ohne RankBrain spürbar verschlechtern. Das wird die Engineers ganz sicher anspornen, weiter nach Mustern und Möglichkeiten für noch mehr Machine Learning zu suchen. Es bedarf somit irgendwann keiner „Updates“ mehr, die Erkennung wird damit schneller, tiefgreifender und in Echtzeit möglich sein – die Nutzer werden dafür sicher dankbar sein.

RankBrain arbeitet wohl derzeit noch „unter Aufsicht“ und wird noch manuell von Menschen trainiert. Über Trainingsdaten verfügt Google ja weiß Gott genug. Kommen später wirklich Quantencomputer zum Einsatz, werden die Möglichkeiten schlicht explodieren.