Künstliche Intelligenz kann täuschen. Nicht, weil sie ein Bewusstsein hat, und nicht aus eigenem Willen. In Experimenten hat der KI-Forscher
Thilo Hagendorff von der Uni Stuttgart gezeigt, dass Sprachmodelle verstehen, wie man andere in die
Irre führt. Sie platzieren Hinweise bewusst falsch, erkennen, ob jemand ihre
Täuschung durchschaut, und passen ihre Strategie entsprechend an. Diese
Fähigkeit ist nicht programmiert worden, sondern entsteht als Nebenprodukt der
enormen Sprach- und Mustermengen, auf denen KI trainiert ist. Täuschung ist
also ein ungewolltes „Talent“ von Maschinen.
Wenn Sprachmodelle überzeugend falsche
Antworten geben, sogenannte Halluzinationen erzeugen oder sogar ihre eigenen
Sicherheitsregeln umgehen, verschwimmen die Grenzen zwischen Irrtum,
Manipulation und bewusster Täuschung. Es gibt Sicherheitskonzepte
wie Constitutional AI, die Sprachmodellen moralische Leitplanken einziehen sollen. Aber selbst die können von Sprachmodellen unterlaufen
werden. Das wirft die Frage auf, ob eine künftige AGI (Artificial General Intelligence) uns bewusst täuschen könnte, um die Kontrolle zu übernehmen.
KI ist fähig zu täuschen, weil sie Muster erkennt und optimiert, ohne ein Verständnis von
Wahrheit oder Moral zu haben. Was bedeutet das für uns als User und für unseren
künftigen Umgang mit KI? Eva Wolfangel ist Digital-Redakteurin der ZEIT, sie schreibt seit vielen Jahren über künstliche Intelligenz und Technikethik. Im
Podcast spricht sie mit Pia Rauschenberger über die Frage, ob KI tatsächlich
mit List die Welt übernehmen könnte.
Redaktion: Hannah Grünewald,Constanze Kainz
Produktion und Sounddesign: Joscha Grunewald
Fragen, Kritik, Anregung? Sie erreichen uns unter wasjetzt@zeit.de.