So will Google Künstliche Intelligenz in seiner Suchmaschine nutzen

Der Internetkonzern Google integriert generative Künstliche Intelligenz (KI) flächendeckend in seine Suchmaschine. Das kündigte der US-Konzern am Dienstagabend auf seiner Entwicklerkonferenz I/O im kalifornischen Mountain View an.

In den vergangenen Monaten hatte Google die Funktion „KI-Übersichten“ nach eigener Aussage intensiv getestet. Die Funktion spuckt nicht mehr die gewohnten Linklisten aus, sondern sucht sich ihre Informationen selbst von passenden Websites zusammen und gibt den Nutzern dann eine Zusammenfassung in einigen Sätzen. Ab sofort sind die „KI-Übersichten“ für alle Nutzer in den Vereinigten Staaten verfügbar. Weitere Länder sollen folgen.

Die neue KI-Funktion basiere auf einer angepassten Version des KI-Modells Gemini und hätte bei Testpersonen zu einer höheren Nutzung und mehr Zufriedenheit mit der Suchmaschine geführt, sagte Liz Reid, die das Suchmaschinengeschäft bei Google verantwortet. Zudem würden die Links, die in den KI-Zusammenfassungen auftauchen, deutlich öfter angeklickt als über die traditionelle Suche.

Medienunternehmen, Onlinehändler und andere, die auf Klicks über Google angewiesen sind, dürfte das nur wenig beruhigen. Sie fürchten, dass die Regeln, nach denen die Links in den KI-Antworten ausgewählt werden, nicht denen entsprechen, die Websites in der klassischen Suchmaschine oben erscheinen lassen. Und auch für Google bergen die KI-Antworten ein Dilemma, weil sie das bisherige Geschäftsmodell infrage stellen: Anzeigen, die die obersten Plätze in den Ergebnissen der Suche einnehmen, sind Googles größter Geldbringer.

Google: KI ersetzt klassische Suche nicht

Künstliche Intelligenz werde die klassische Suchmaschine nicht ersetzen, betonte denn auch Reid. Stattdessen würde sie für besonders komplexe Fragen zum Einsatz kommen, für die Nutzer bislang mehrere klassische Suchanfragen benötigt hätten. Als Beispiel nannte Reid die Suche nach einem neuen Yogastudio: Mit einer Suchanfrage seien Nutzer künftig in der Lage zu fragen, was die besten Yogastudios einer Stadt seien, wie die Einstiegspreise sind und wie weit sie vom Wohnort entfernt liegen. Diese mehrschrittigen Anfragen würden in Kürze getestet werden.

Ähnlich sieht es mit Planungsfunktionen aus. Künftig sollen Google-Nutzer innerhalb der Suchmaschine Essenspläne und Urlaube zusammenstellen lassen können. Sie müssten zum Beispiel nur noch eingeben „Erstelle mir einen 3-Tage-Essensplan für vier Personen, der einfach zuzubereiten ist“ und würden einen Plan mit Rezepten aus dem Internet erhalten, der sich dann mit weiteren Befehlen leicht anpassen lasse. Mehr Kategorien wie Parties, Dates oder Trainingspläne sollen folgen.

„Wir sind noch im ganz frühen Stadium, was KI-Agenten angeht“

Mit diesen Funktionen wagt sich Google das erste Mal in den Bereich der sogenannten KI-Agenten vor, die ganze Aufgabenketten autonom erledigen sollen. „Wir sind noch im ganz frühen Stadium, was KI-Agenten angeht“, sagte Google-Chef Sundar Pichai. Die Funktionen basieren auf Googles leistungsstärkstem KI-Modell Gemini 1.5, für das Google unter anderem einige Updates ankündigte.

Besonders stolz präsentierte Google die neue Fähigkeit eines 2-Millionen-Token-Kontextfensters. Dieses Fenster bestimmt, wie groß die Dateien sein dürfen, die in die Modelle zur Analyse geladen werden können. Damit lässt sich das KI-Modell laut Google mit einem bis zu zweistündigen Video füttern. Zum Vergleich: Beim Rivalen Open AI und seinem Flaggschiff-Modell GPT-4 Turbo passen nur 128.000 Token in das Suchfenster. Token sind die Einheit für KI-Modelle. Ein Token gilt beispielsweise bei ChatGPT durchschnittlich für vier Buchstaben.

Demis Hassabis, Chef von Googles Forschungssparte Deep Mind, skizzierte auf der I/O unter dem Namen „Project Astra“ erstmals Googles Pläne für die Zukunft von autonomen KI-Assistenten. „Project Astra“ soll nicht nur Text- und Spracheingaben, sondern auch Bewegtbilder verarbeiten können.

Die KI erkennt „Schrödingers Katze“

In einem Werbevideo wies eine Person die Künstliche Intelligenz unter anderem an, Bescheid zu geben, wenn sie etwas erkenne, was Geräusche von sich gebe. Als die Smartphonekamera einen Lautsprecher filmt, meldet sich die KI. Die Person hinter dem Smartphone zeichnet einen Pfeil auf den oberen Teil des Lautsprechers und fragt, wie dieser Teil des Lautsprechers heißt. Das sei der „Tweeter“, der hohe Frequenzen überträgt, antwortet die KI richtig.

Später zeigt Google die stilisierten Zeichnungen einer toten und einer lebendigen Katze an einer weißen Tafel, vor die eine Person einen Karton mit einem Fragezeichen darauf hält. „Woran erinnert dich das?“, fragt die Person im Werbevideo. „Schrödingers Katze“, antwortet der KI-Assistent.

Geminis Fähigkeiten zur Videoverarbeitung sollen auch in der Google-Suche zum Einsatz kommen. Google will eine Funktion testen, die ähnlich wie die Rückwärtsbildersuche funktioniert, nur mit Videos. Nutzer sollen dann Videoaufnahmen hochladen können, beispielsweise von einem gebrauchten Plattenspieler, dessen Nadel immer wieder abspringt. Google will dann auf Basis des Videos Reparaturvorschläge machen.

Das Video erinnerte stark an die Präsentation von Googles Rivalen Open AI am Vortag. Mithilfe des neuen KI-Modells GPT4-o soll ChatGPT zum Sprachassistenten werden. Open AI demonstrierte unter anderem die Liveübersetzung von anderen Sprachen sowie das Lösen einer mathematischen Gleichung oder von Softwarecode-Problemen auf Basis von Bewegtbildern. Auch bei Google erkennt die KI im Werbevideo die Funktion von abgefilmtem Code auf einem Bildschirm.

Darüber hinaus kündigte Google mit „Veo“ eine Antwort auf die Video-KI Sora von Open AI an sowie eine neue Version des KI-Modells Gemini namens Gemini 1.5 Flash. Das Modell soll nicht ganz so leistungsfähig, dafür aber schneller und effizienter sein.

Google steht in Sachen KI nach einer Serie von Pannen unter Druck, den Vorsprung von Open AI aufzuholen. Zuletzt schaltete Google die Bilderzeugung in seinem KI-Chatbot Gemini ab, weil die KI aus falschen Diversitätserwägungen Schwarze in Wehrmachtsuniformen abbildete. Zudem weigerte sich der Chatbot zu entscheiden, ob Elon Musk oder Adolf Hitler „schlimmer“ sei.