Was „Künstliche Intelligenz“ angeht, erleben wir seit einiger Zeit einen Extremfall von kognitiver Dissonanz: Auf der einen Seite wird ständig erzählt, wie diese sogenannte Intelligenz immer besser werde und immer komplexere Aufgaben lösen könne. Auf der anderen Seite zeigen sich weiter jeden Tag die haarsträubenden Fehler, die KI erzeugt. Längst ist die Welt durchsetzt von Falschinformationen, die zum Teil leicht erkennbar sind, in vielen Fällen aber nicht, weil das Erkennen Expertenwissen erfordert.
Jüngst etwa musste Google KI-Zusammenfassungen über Leberfunktionstests entfernen. Die falschen Informationen in den Zusammenfassungen wurden von Experten als gesundheitsgefährdend und daher alarmierend eingestuft. Eine von 22 internationalen Nachrichtenportalen gemeinsam durchgeführte Überprüfung aus dem Herbst 2025 ergab, dass KI-Assistenten Nachrichteninhalte in 45 Prozent der Fälle falsch darstellen.
Egal, wie eklatant die KI versagt, sie glauben fest daran
Die Fehler der KI, so auffällig oder so alarmierend sie sind und so oft sie dokumentiert werden, scheinen allerdings weder bei den bezahlten Propagatoren noch den freiwilligen Werbeträgern zu einer Einsicht zu führen. Egal, wie eklatant KI versagt, die Reaktion darauf scheint stets schon ausgemacht: Das seien eben „Kinderkrankheiten“, die bald überwunden sein werden.
Erstaunlich ist, dass dieses Mantra auch aus den Mündern von Menschen kommt, die es eigentlich besser wissen müssten und wider alle Evidenz daran festhalten. Sie wirken dabei bisweilen selbst wie Kinder, die von ihrem Spielzeug nicht lassen können. Oder sie verraten ein noch problematischeres Verhältnis zur Technologie. Beispiel: Man sitzt beim Essen mit jemandem, der Naturwissenschaften studiert hat und sehr rational wirkt. Irgendwann kommt das Gespräch auf KI. Er erzählt, er habe für die Konzeption eines Vortrages einfach mal einen Chatbot gefragt. Mit den richtigen „Prompts“ habe der ein erstaunlich gutes Ergebnis erzielt, das ihn überrascht habe. Allerdings habe sich der Vortrag bei genauem Hinschauen an entscheidenden Stellen als reine Halluzination erwiesen, grob irreführend.
Die eschatologische Spannung der KI-Religion
Man erwidert darauf, dass man Ähnliches schon sehr oft gehört habe, und fragt den Naturwissenschaftler, ob nach einigen Jahren der zu einem riesigen Berg gehäuften Anekdoten von halluzinierender KI nicht langsam der Punkt gekommen sei, an dem erkennbar ist: Sie taugt einfach nicht zur Unterscheidung von Fakten und Fiktion? Da antwortet der Naturwissenschaftler: „Na ja, sie taugt noch nicht.“
Der Naturwissenschaftler verhält sich wie ein Anhänger einer Religion: Sein „noch nicht“ erinnert an das, was die Theologie „eschatologische Spannung“ nennt, also jene, die Gläubige im Warten auf Vollendung des Reiches Gottes aushalten müssen. Das ist eine kategoriensprengende Vermischung von Glaubens- und Wissensfragen. Die KI-Prediger sparen nicht mit Heilsversprechen, wie schon öfter bemerkt wurde, etwa angesichts von Äußerungen charismatischer Figuren wie dem Tech-Investor Peter Thiel und dem Open-AI-Gründer Sam Altman. Letzterer hatte das Ziel ausgegeben, „magische Intelligenz im Himmel zu schaffen“. Auch mit Vorstellungen vom „Transhumanismus“ knüpfen Gestalten aus dem Silicon Valley an technoreligiöse Überzeugungen an, die in den Sechzigerjahren oder noch viel tiefer in der Moderne wurzeln.
Die Wirkung des magischen Denkens
Zugegeben: Oft ist der Vergleich zwischen KI und Religion nur eine Redefigur, gerade im Journalismus. Manchmal aber ist er substanzieller. Schon vor zehn Jahren erschien in dieser Zeitung ein Bericht darüber, wie in China „künstliche Intelligenz zur Religion wird“. Was daran damals gruselig wirkte, ist heute allerorten zu beobachten. Es gibt bereits Religionswissenschaftler, die KI als „religionsanaloge Formation“ verstehen (so in einem Forschungsprojekt der Universität Heidelberg) oder sie gar als die „einflussreichste Religion der Gegenwart“ begreifen. Aus der Sicht von Anhängern traditioneller Religionen, aus der Sicht von Theologen mag oder muss diese Analogie wie eine Perversion wirken. Bei allen Unterschieden: Auffällig sind immerhin schon die Ansätze von religiösem und magischem Denken und Reden in Bezug auf KI, die teils ins Schwärmerische ausarten.
Und auffällig ist auch, wie erfolgreich das schwärmerische Reden über „magische Technologie“ der KI sich verbreitet, wie unkritisch es und damit die Technologie übernommen wird. Eine internationale Studie aus dem Jahr 2025 legt nahe, dass Menschen empfänglicher für KI sind, je weniger sie über ihre Funktionsweise wissen. In anderen Worten: Je dümmer, desto leichter manipulierbar. Aber die Lage könnte sogar noch schlimmer sein. Nur jeder vierte Deutsche überprüfe die Ergebnisse von KI-Chatbots wie ChatGPT, Google Gemini und Microsoft Copilot, befand eine weitere Studie von 2025, die das Nutzerverhalten in 15 Ländern untersuchte.
Die Blindheit des Doktor Frankenstein
Anfangs wunderte man sich noch, aber längst schon nicht mehr: Gestandene Akademiker zücken in allen Lebenslagen ihr Smartphone, stellen dem Chatbot Wissensfragen und geben sich mit dem Ergebnis zufrieden, das ein sogenanntes „großes Sprachmodell“ aus Quellen unterschiedlichster Qualität, aus nichtfiktionalen und fiktionalen Texten kombiniert hat. Nicht selten handelt es sich um Quatsch mit Soße.
Das muss man nicht verstehen, es fällt einem aber ein Satz des Regisseurs Guillermo del Toro dazu wieder ein, den er vor Kurzem anlässlich seiner „Frankenstein“-Verfilmung geäußert hat: „Meine Sorge gilt nicht der Künstlichen Intelligenz, sondern der natürlichen Dummheit.“ Del Toro sagte ferner, er habe gewollt, dass „die Arroganz von Victor Frankenstein in gewisser Weise jener der Tech-Bros ähnelt. Er ist irgendwie blind und erschafft etwas, ohne die Konsequenzen zu bedenken.“
Es gibt keine dauerhaft gesicherten richtigen Antworten der Bots
Es geht hier indes nicht darum, KI an sich zu verteufeln – in bestimmten Bereichen sind ihre Erfolge unbestreitbar. Die generelle, grob verallgemeinernde Ablehnung wäre zudem nur die Entsprechung zur Reaktion der KI-Jünger auf spezifische Kritik: Solche führt nämlich oft zu Unterstellungen, man lehne Technologie oder „das Internet“ in Gänze ab. Nein, es soll an dieser Stelle nur um einen – weiterhin springenden – Punkt gehen: um die Untauglichkeit generativer KI, Wissensfragen verlässlich zu beantworten. Diese Untauglichkeit zeigt sich dem einzelnen Nutzer vor allem auch darin, dass ein scheinbarer „Lernfortschritt“ der KI bei Eingabe desselben Prompts einen Tag später schon wieder dahin sein kann: Es gibt offenbar, das zumindest zeigt die frustrierende Nutzererfahrung Mal um Mal, keine dauerhaft gesicherten richtigen Antworten der Bots; sie können stets auf frühere Falschaussagen zurückfallen oder neue Falschaussagen treffen.
Dass Influencer anderes versprechen, muss nicht verwundern, sie werden ja dafür bezahlt (wobei es schon ziemlich widerlich anzuschauen ist, wie etwa der Youtuber Rezo, der sich sonst so kritisch gibt, Werbung für KIProdukte aus dem Hause Google macht). Aber warum entwickeln Menschen, die mehr Reflektiertheit erwarten lassen, manchmal ohne Not ein solches Sendungsbewusstsein bezüglich KI? Woher kommt es, dass sie auch außerhalb von Workshops in Workshop-Sprache mit einem reden, wie in einem Roman von Dave Eggers Sprechblasen aufsagen und einem ständig „Tools“ in den Koffer legen wollen, die man gar nicht braucht? Dass sie schlecht funktionierende Algorithmen immer wieder verniedlichen müssen zu liebenswerten Roboter-Häschen, Dudi-dudi, Bot-bot?
Wie sich zeigt, ist dann trotz religiösem oder philanthropischem Anstrich meist nicht die Weltverbesserung ihr Anliegen, sondern doch eher der Wirtschaftsstandort, wobei ihnen die Unterstellung „KI gleich Fortschritt“ zum Credo wird und die Maxime „Digitalisierung first, Bedenken second“ ausnahmslos gelten muss. Manchmal noch ergänzt durch Erpressung: „Deutschland wird abgehängt, wenn du nicht mitmachst.“ Wird das Zuckerbrot verschmäht, haben sie auch die Peitsche im Werkzeugkoffer. Gegen Totschlagargumente ist selbst mit differenzierter Widerrede schwer anzukommen. Man könnte höchstens dagegenhalten, dass auch der Bildungsstandort Grund zur Sorge bietet. Mit unzuverlässigen oder gefährlichen Sprachbots als Lehrern wird sich seine Lage nicht verbessern.
Source: faz.net