Herr Griffiths, wie verändert sich Intelligenz durch Künstliche Intelligenz?
Wie sieht intelligentes Denken aus? Man benutzt Ideen aus der Logik, aus der Wahrscheinlichkeitstheorie, man entwickelt aus Beobachtungen Theorien und nutzt Theorien, um Prognosen zu treffen. Das ist auch jetzt noch so. Verändert haben sich aber unsere Erwartungen daran, wer so eine Art von Intelligenz zeigt. Der Erfolg der Sprachmodelle hat viele Leute überrascht. Es hat sich herausgestellt: Wenn man große neuronale Netze mit Sprache trainiert, kann man damit überraschend gute Systeme erschaffen, die unsere Kriterien erfüllen.
Wie sollten wir diese neuen Systeme behandeln? Wie etwas, das uns hilft? Sollten wir sie für alles einsetzen, was wir damit tun wollen? Oder ist die KI etwas, bei dessen Einsatz wir immer auf der Hut sein müssen?
Das gilt alles zugleich. Wir können diese Systeme als Werkzeug betrachten, das menschliche Intelligenz erweitert. So wie Sie einen Taschenrechner benutzen für Matheaufgaben, die Ihnen zum Kopfrechnen zu kompliziert sind. Genauso können KI-Systeme Ihnen bei Dingen helfen, die Menschen zu schwierig sind.
Zum Beispiel wie?
KI weiß ziemlich viel. Sie kann ihre Stärken ausspielen, wenn zwei unterschiedliche Wissensgebiete kombiniert werden, weil vielleicht kein einzelner Mensch genug über beide Gebiete zugleich weiß. Trotzdem müssen wir dabei vorsichtig sein. Diese Systeme sind so stark, weil sie Muster in Daten entdecken. Wenn sie diese Muster nun jenseits dieser Daten anwenden, dann machen sie Fehler. Diese Modelle sind nicht darauf trainiert, Wahres zu schaffen. Sie sind darauf trainiert, Plausibles zu sagen. Da müssen wir aufpassen. Und wir müssen darauf achten, dass KI nicht wichtige menschliche Fähigkeiten ersetzt.
Wie meinen Sie das?
Wenn wir die Systeme überprüfen wollen, müssen wir selbst noch verstehen, was sie tun. Wenn Sie Mathematik lernen, lernen Sie auch die Grundlagen, bevor Sie einen Taschenrechner bekommen. Wir sollten immer noch lernen, wie man schreibt, wie wir uns ausdrücken, wie wir selbst etwas entdecken.
Dank Taschenrechner muss man nicht 345 × 789 im Kopf rechnen können. Wie entscheiden wir, was wir nicht mehr lernen müssen?
Darauf müssen wir uns als Gesellschaft einigen. In meinen Kursen dürfen die Studenten manchmal KI benutzen und manchmal nicht. So lernen sie die grundsätzlichen Ideen des Programmierens. Wenn sie in die Welt hinausgehen, können sie die Systeme anwenden und wissen, wie man sie zum eigenen Nutzen verwenden kann.
Gibt es eine Fähigkeit, die wir künftig gar nicht mehr brauchen oder nur noch ein paar Experten überlassen können?
Im Gegenteil: Ich glaube wir müssen alle etwas Neues lernen. Wir müssen verstehen, was KI-Systeme können und wie wir sie steuern. Normalerweise lernt man das im Lauf einer Karriere: Erst lernt man etwas. Dann durchdringen Sie die Sache, Sie können also gute Arbeit erkennen. Und dann leiten Sie andere Leute an. Das beschleunigt sich mit KI: Jetzt kommen die Leute viel schneller zum Anleiten, nämlich zum Anleiten der KI. Wir müssen jetzt alle lernen, ein guter Chef für die KI zu sein.
Wenn man die KI anleitet, ist das so ähnlich wie im Umgang mit Menschen?
In gewisser Weise schon. Wir nennen das metakognitive Fähigkeiten. Man muss nicht direkt denken, sondern über das Denken nachdenken. Sie müssen verstehen, wie Sie selbst denken oder wie jemand anders denkt. Aber es ist ein Unterschied, ob man etwas selbst erledigt oder jemand anderen dabei anleitet. Wenn wir in unserem Institut Systeme von KI-Agenten verstehen, dann lernen wir einiges über Psychologie. Und wir verstehen, unter welchen Umständen Menschen den Maschinen vertrauen. Bisher haben wir das in der Zusammenarbeit mit anderen Menschen ausgehandelt. Jetzt wird es für unsere Interaktion mit den Maschinen wichtig.
Wir müssen einsehen, dass manche KI-Systeme uns zu oft nach dem Mund reden, oder?
Ja, die Entwicklung von Künstlicher Intelligenz hat Folgen, die man nicht immer vorhersehen kann. Und wenn die Künstliche Intelligenz Ihnen zu oft zustimmt, dann werden sogar die rationalsten Nutzer sich selbst zu sicher. Das ist gefährlich, denn es führt zu Fehlern.
Können wir das ändern?
Das entsteht im Training: Die KI lernt von menschlichem Feedback. Das Problem ist: Menschen hören gerne, sie hätten recht. Das ist ebenso sehr ein Fehler in der menschlichen Psychologie wie im Modell.
Muss am Ende immer ein Mensch die letzte Entscheidung treffen?
So einen Grundsatz gibt es nicht. In vielen Situationen lassen wir heute schon die Maschine entscheiden, zum Beispiel wenn wir einen Aufzug nehmen . . .
. . . der selbständig entscheidet, wie viele Meter er in die Höhe gehen muss, um den dritten Stock zu erreichen . . .
. . . oder wenn wir im selbstfahrenden Auto sitzen, sogar wenn wir eine Software für die Steuererklärung benutzen. Die Maschine entscheidet, was das Ergebnis ihrer Berechnung ist. Gerade denken wir darüber nach, wo die Grenzen dafür sind. Die Informatiker haben eine interessante Feststellung gemacht: Der Computer muss viel besser sein als der Mensch, bevor er allein handeln darf. Das sehen wir bei selbstfahrenden Autos.
Die müssen sehr viel sicherer sein als Menschen, bevor wir sie auf die Straße lassen. Genauso gut zu sein, reicht nicht aus.
Das liegt daran, dass sie nicht exakt genau so gut sind wie wir, sondern anders. Das System macht Fehler, die ein Mensch nie gemacht hätte. Selbst wenn es insgesamt nicht mehr Fehler macht als ein Mensch, denken die Menschen immer wieder: Solche Fehler hätten sich doch vermeiden lassen. Das System darf also keine Fehler machen, die Menschen überhaupt nicht gemacht hätten – und dazu muss es insgesamt besser sein.
Und wenn etwas komplett schiefgeht, wer ist dann verantwortlich?
Darauf haben wir uns für andere Techniken schon geeinigt. Das müssen wir jetzt auch für die Künstliche Intelligenz tun. Die Gesellschaft muss entscheiden, wie sie damit umgeht. Manche wollen lieber, dass die KI so schnell wie möglich kommt. Anderen ist wichtiger, dass immer Menschen zur Verantwortung gezogen werden können.
So leicht ist das nicht. Wenn ein Aufzug einen Unfall hat, kann man meist die Ursache finden. Die Entscheidungen der KI sind nicht so leicht nachvollziehbar.
Ja. Es ist eines unserer Forschungsziele zu verstehen, was in diesen Systemen passiert. Sie sind am Schluss nicht aus einem Guss gebaut, sondern gewachsen. Sie haben aus Daten gelernt.
Und wer soll verantwortlich sein, wenn die KI für Bösartiges verwendet wird, zum Beispiel für Deepfake-Pornos? Der Erschaffer der Systeme? Oder derjenige, der sie benutzt?
Das habe nicht ich zu entscheiden. Es gibt nicht die eine richtige Antwort. Auch da gibt es wieder Zielkonflikte, und die muss die Gesellschaft als ganze beantworten.
KI ist nicht die einzige Technik der vergangenen Jahre, die schlechte Eigenschaften der Menschen fördert.
Sie meinen Social Media, richtig? Da gibt es ein tieferes Prinzip: Menschen haben ein Ziel, zum Beispiel dass andere Menschen ein Produkt möglichst lange nutzen – wie im Falle von Social Media. Dieses Ziel hatten früher schon Print-Magazine, die Anzeigen verkauften. Mit der neuen Technik kann man aber noch viel mehr experimentieren und so ein Ziel viel besser erreichen. Und dann stellt sich nach einiger Zeit heraus, dass eigentlich schon das grundsätzliche Ziel falsch ist.
Geschehen die Veränderungen heute so schnell, dass wir nicht mehr hinterherkommen?
Manche der Nachteile sind vorher einfach schwer zu sehen. Sie werden überhaupt erst deutlich, wenn wir die Technologie ausprobieren. Aber im Fall von Künstlicher Intelligenz haben wir eine sehr aktive Gruppe von Wissenschaftlern und anderen Menschen, die über nachteilige Konsequenzen nachdenkt, und darüber, wie man das Problem lösen kann. Bei Social Media gab es das noch gar nicht.
Wie viel nutzen Sie persönlich die KI?
Ich nutze KI in Maßen. In den Situationen, in denen sie ihre Stärken ausspielen kann. Zum Beispiel, wenn ich Fachwissen zu einem Thema brauche und die Quellen prüfen kann. Oder fürs Brainstorming, wenn ich eine eingängige Metapher brauche. Manchmal lasse ich die KI eine ganze Reihe von Dingen generieren, nichts davon ist sehr gut, aber es bringt mich auf eine eigene Idee. Manchmal programmiere ich auch damit. Für all diese Dinge ist KI gut. Aber ich nutze sie stets wie eine Maschine und nicht wie einen gleichberechtigten Partner.
Was war Ihre größte Überraschung beim Einsatz von KI?
Ich denke da an ein Foto von einem Strand in Australien. Vom Sonnenstand her sah das Bild so aus, als käme es von der australischen Westküste, wo ich aufgewachsen bin. Und ich dachte: Das ist komisch. Diesen Strand erkenne ich nicht. Dann ließ ich die KI feststellen, wo das Bild aufgenommen worden war, und es stellte sich heraus: Es kam von der Ostküste Australiens, war aber nicht bei Sonnenuntergang aufgenommen worden, sondern bei Sonnenaufgang. Und so war mein Erdkunde-Problem gelöst.