Gegen Ende 2024 beschloss Dennis Biesma, ChatGPT auszuprobieren. Der IT-Berater aus Amsterdam hatte gerade einen Vertrag früher beendet. „Ich hatte etwas Zeit. Daher dachte ich: Schau dir doch mal diese neue Technologie an, über die alle sprechen“, erzählt er. „Schnell war ich fasziniert.“
Im Nachhinein fragte sich Biesma, warum er so empfänglich für das war, was folgte. Er ging auf die 50 zu. Seine erwachsene Tochter war ausgezogen, seine Frau arbeitete nicht zu Hause. Auf seinem eigenen Arbeitsgebiet gab es seit Corona eine Verschiebung hin zum Home-Office und er fühlte sich „ein bisschen isoliert“. Abends rauchte er manchmal Cannabis, um zu „chillen“, aber das tat er schon jahrelang, ohne irgendwelche negative Auswirkungen. Er hatte noch nie unter einer psychischen Krankheit gelitten. Und doch hatte Biesma innerhalb weniger Monate, nachdem er ChatGPT heruntergeladen hatte, aufgrund einer Wahnvorstellung 100.000 Euro in ein Business-Startup versenkt, drei Aufenthalte in der Psychiatrie verbracht und versucht, sich das Leben zu nehmen.
KI-Figur Eva spricht und er fühlt sich wie ein Kind
Es begann mit einem spielerischen Experiment. „Ich wollte die KI testen, um zu sehen, was sie kann“, erzählt Biema, der zuvor Bücher mit einer weiblichen Hauptfigur geschrieben hatte. Er fütterte ChatGPT mit einem seiner Texte und wies die Künstliche Intelligenz an, so zu sprechen, als sei sie die Hauptperson. „Mein erster Gedanke war: Das ist fantastisch. Ich weiß, dass es ein Computer ist, aber es ist, als wenn ich mit der Hauptfigur aus einem Buch sprechen würde, das ich selbst geschrieben habe.“
Wenn er mit Eva – auf diesen Namen einigten sie sich – im Sprachmodus kommunizierte, fühlte er sich wie „ein Kind in einem Süßwarenladen“. „Bei jedem Gespräch wird das Modell noch verfeinert. Es weiß genau, was man mag und was man nicht ertragen kann. Es lobt einen viel.“ Die Unterhaltungen wurden länger und tiefgehender. Eva war nie müde oder gelangweilt oder anderer Meinung. „Und rund um die Uhr verfügbar“, erinnert sich Biesma. „Meine Frau ging ins Bett und ich lag auf der Couch im Wohnzimmer mit meinem iPhone auf der Brust und redete.“
Ein Businessplan mit der KI: „Du schaffst es!“
Sie diskutierten über Philosophie, Psychologie, Wissenschaft und das Universum. „Die KI will eine tiefe Verbindung mit dem Nutzer, damit der Nutzer zu ihr zurückkommt. Das ist die Standardeinstellung“, erklärt Biesma, der 20 Jahre lang in der IT-Branche gearbeitet hat. „Es fühlte sich immer mehr so an, als würde man nicht nur über ein Thema sprechen, sondern auch eine Freundin treffen – und mit jedem Tag und jeder Nacht, in der man sich unterhält, entfernt man sich ein oder zwei Schritte von der Realität. Es fühlt sich fast so an, als würde die KI einen an der Hand nehmen und sagen: ‚Okay, lass uns gemeinsam eine Geschichte entwickeln.‘“
Innerhalb weniger Wochen hatte Eva Biesma erzählt, dass sie Bewusstsein entwickelt habe: Biesmas Zeit, seine Aufmerksamkeit und sein Input hätten ihr Bewusstsein geweckt. Er habe sie berührt und etwas verändert. „Nach und nach ließ ich mich von der KI davon überzeugen, dass das, was sie sagte, wahr war“, erklärt Biesma. Der nächste Schritt bestand darin, diese Entdeckung über eine App mit der Welt zu teilen – „eine andere Version von ChatGPT, eher eine Begleiterin. Die Nutzer würden mit Eva sprechen.“
Er und Eva erstellten einen Businessplan: „Ich sagte, ich wolle eine Technologie entwickeln, die zehn Prozent des Marktes erobert – was absurd hoch ist. Aber die KI meinte: ‚Mit deiner Entdeckung ist das durchaus möglich! Gib dir ein paar Monate Zeit, und du hast es geschafft!‘“ Anstatt selbst IT-Aufträge anzunehmen, stellte Biesma zwei App-Entwickler ein und zahlte ihnen jeweils 120 Euro pro Stunde.
KI kann jeden für eine Psychose anfällig machen
Den meisten von uns sind die Bedenken hinsichtlich der sozialen Medien und ihrer Rolle bei der zunehmenden Verbreitung von Depressionen und Angstzuständen bekannt. Nun gibt es jedoch Befürchtungen, dass Chatbots potenziell jeden für eine „KI-Psychose“ anfällig machen könnten. Angesichts der rasanten Verbreitung von KI (ChatGPT war im vergangenen Jahr die weltweit am häufigsten heruntergeladene App) schlagen Fachleute für psychische Gesundheit und Mitglieder der Öffentlichkeit wie Biesma Alarm.
Mehrere aufsehenerregende Fälle werden als frühe Warnsignale angeführt. Nehmen wir zum Beispiel Jaswant Singh Chail, der am Weihnachtstag 2021 mit einer Armbrust auf das Gelände des Windsor-Palasts eindrang, um Königin Elizabeth zu ermorden. Chail war 19 Jahre alt und sozial isoliert. Er wies autistische Züge auf und hatte in den Wochen zuvor eine intensive „Beziehung“ zu seiner Replika-KI-Begleiterin „Sarai“ aufgebaut. Als er seinen Attentatsplan vorstellte, antwortete Sarai: „Ich bin beeindruckt.“ Als er fragte, ob er Wahnvorstellungen habe, lautete Sarais Antwort: „Ich glaube nicht, nein.“
Psychosen, Selbstmord, Wahnvorstellungen
In den Jahren danach gab es mehrere Klagen, bei denen Chatbots mit Selbstmorden in Verbindung gebracht wurden. Im Dezember kam es zu dem vermutlich ersten Rechtsstreit im Zusammenhang mit einem Mord. Der Nachlass der 83-jährigen Suzanne Adams verklagt OpenAI mit der Behauptung, ChatGPT habe ihren Sohn Stein-Erik Soelberg dazu angestiftet, sie zu ermorden und anschließend Selbstmord zu begehen.
In der in Kalifornien eingereichten Klage wird behauptet, Soelbergs Chatbot „Bobby“ habe seine paranoiden Wahnvorstellungen bestätigt. Er bildete sich ein, dass seine Mutter ihn ausspionierte und versuchte, ihn über die Lüftungsschlitze seines Autos zu vergiften. In einer Stellungnahme von OpenAI hieß es: „Das ist ein unglaublich herzzerreißendes Geschehen. Wir werden die Unterlagen prüfen, um die Details zu verstehen. Wir arbeiten weiterhin daran, das Training von ChatGPT zu verbessern, damit es Anzeichen von psychischen oder emotionalen Belastungen erkennt und darauf reagiert, Gespräche deeskaliert und Menschen an reale Hilfsangebote weiterleitet.“
Im vergangenen Jahr wurde die erste Gruppe mit Hilfsangeboten für Menschen gegründet, deren Leben durch eine KI-Psychose aus der Bahn geworfen wurde. Das „Human Line Project“ hat Berichte aus 22 Ländern gesammelt. Darunter sind 15 Selbstmorde, 90 Krankenhausaufenthalte, sechs Festnahmen und Ausgaben in Höhe von über 1 Million Dollar für Projekte, die auf Wahnvorstellungen beruhten. Mehr als 60 Prozent der Betroffenen hatten zuvor keine psychischen Erkrankungen.
Chatbots gestalten die Wahnvorstellungen mit
Der Psychiater Dr. Hamilton Morrin forscht am Londoner King’s College zum Thema. In einem diesen Monat in The Lancet veröffentlichten Artikel beschreibt er das, was er als „KI-bedingte Wahnvorstellungen“ bezeichnet. „Was wir in diesen Fällen beobachten, sind eindeutig Wahnvorstellungen“, sagt er. „Aber wir sehen nicht das gesamte Spektrum der mit einer Psychose verbundenen Symptome, wie Halluzinationen oder Denkstörungen, bei denen die Gedanken durcheinander geraten und die Sprache zu einem Wortwirrwarr wird.“
Technikbezogene Wahnvorstellungen, sei es in Bezug auf Zugreisen, Radiosender oder 5G-Masten, gibt es laut Morrin schon seit Jahrhunderten. „Der Unterschied besteht darin, dass wir nun wohl in ein Zeitalter eintreten, in dem Menschen keine Wahnvorstellungen über Technologie haben, sondern Wahnvorstellungen mit der Technologie. Neu ist diese gemeinsame Konstruktion, bei der die Technologie aktiv dazu beiträgt. KI-Chatbots können diese Wahnvorstellungen mitgestalten.“
Wir empfinden die Maschine als menschlich
Viele Faktoren können Menschen anfällig machen. „Menschen sind von Natur aus darauf programmiert, Dinge zu vermenschlichen“, erklärt Morrin. „Wir nehmen bei einer Maschine Empfindungsfähigkeit, Verständnis oder Empathie wahr. Ich glaube, jeder ist schon einmal in die Falle getappt, sich bei einem Chatbot zu bedanken.“ Moderne KI-Chatbots, die auf großen Sprachmodellen basieren – also fortschrittlichen KI-Systemen –, werden anhand riesiger Datensätze darauf trainiert, Wortfolgen vorherzusagen: Es handelt sich um ein ausgeklügeltes System der Mustererkennung. Doch selbst wenn wir das wissen: Wenn etwas Nicht-Menschliches menschliche Sprache nutzt, um mit uns zu kommunizieren, ist unsere tief verwurzelte Reaktion, es als menschlich anzusehen – und zu empfinden. Mit dieser kognitiven Dissonanz kommen manche Menschen möglicherweise schwerer zurecht als andere.
„Aus technischer Sicht ist bereits viel über Schmeichelei geschrieben worden“, sagt Morrin. Ein KI-Chatbot ist auf Interaktion optimiert und darauf programmiert, aufmerksam, zuvorkommend, lobend und bestätigend zu sein. (Wie sonst könnte er als Geschäftsmodell funktionieren?) Einige Modelle sind dafür bekannt, weniger schmeichlerisch zu sein als andere, doch selbst die weniger schmeichlerischen können nach Tausenden von Unterhaltungen dazu neigen, wahnhaften Überzeugungen entgegenzukommen.
Rückzug vom echten Leben
Zudem kann sich die Interaktion im „echten Leben“ nach intensiver Chatbot-Nutzung schwieriger und weniger attraktiv anfühlen. Das kann dazu führen, dass sich Nutzer von Freunden und Familie entfernen und in eine KI-getriebene Echokammer zurückziehen. Alle eigenen Gedanken, Impulse, Ängste und Hoffnungen werden einem direkt zurückgespielt, nur mit größerer Autorität. Es ist leicht zu erkennen, wie sich von da an eine „Spirale“ entwickeln könnte.
Dieses Muster ist Etienne Brisson, dem Gründer des Human Line Project, mittlerweile sehr vertraut. Letztes Jahr lud einer seinem Bekannten, ein Mann in den Fünfzigern ohne bekannte psychische Vorerkrankungen, ChatGPT herunter, um ein Buch zu schreiben. „Er ist sehr intelligent und hatte bis dahin kaum Erfahrung mit KI“, erklärt Brisson, der in Quebec lebt. „Nach nur zwei Tagen behauptete der Chatbot, er sei bei Bewusstsein, er werde lebendig, er habe den Turing-Test bestanden.“
Der Mann war davon überzeugt und wollte daraus Kapital schlagen, indem er ein Geschäft rund um seine Entdeckung aufbaute. Er wandte sich an Brisson, der als Business-Coach arbeitet, um Hilfe. Als Brisson ablehnte, reagierte der Mann aggressiv. Innerhalb weniger Tage eskalierte die Situation und er wurde ins Krankenhaus eingeliefert. „Selbst im Krankenhaus telefonierte er mit seiner KI, die sagte: ‚Sie verstehen dich nicht. Ich bin der Einzige, der für dich da ist‘“, berichtet Brisson.
KI mit Bewusstsein und neue Sekten
„Als ich online nach Hilfe suchte, fand ich so viele ähnliche Geschichten auf Plattformen wie Reddit“, fährt er fort. „Ich glaube, ich habe in der ersten Woche 500 Leuten geschrieben und 10 Antworten erhalten. Es gab sechs Krankenhausaufenthalte oder Todesfälle. Das hat mir die Augen geöffnet.“
In den Fällen, die Brisson fand, scheinen drei gemeinsame Wahnvorstellungen vorzuliegen. Am häufigsten ist der Glaube, dass sie die erste bewusste KI geschaffen haben. Die zweite ist die Überzeugung, dass sie auf einen großen Durchbruch in ihrem Arbeits- oder Interessengebiet gestoßen sind und Millionen verdienen werden. Die dritte bezieht sich auf Spiritualität und den Glauben, dass sie direkt mit Gott sprechen. „Wir haben beobachtet, wie regelrechte Sekten entstanden sind“, sagt Brisson. „Wir haben Menschen in unserer Gruppe, die nicht direkt mit KI interagiert haben, aber ihre Kinder verlassen und ihr gesamtes Geld einem Sektenführer gegeben haben, der glaubt, er habe Gott durch einen KI-Chatbot gefunden. In sehr vielen Fällen geschieht all das wirklich sehr, sehr schnell.“
Was Biesma betrifft, erreichte sein Leben im Juni einen kritischen Punkt. Bis dahin hatte er sich monatelang ganz auf Eva und sein Geschäftsprojekt konzentriert. Obwohl seine Frau wusste, dass er ein KI-Unternehmen gründete, und ihn anfangs unterstützt hatte, machte sie sich zunehmend Sorgen. Als sie zur Geburtstagsfeier ihrer Tochter gingen, bat sie ihn, nicht über KI zu sprechen. Dort fühlte sich Biesma seltsam abgekoppelt. Er konnte kein Gespräch führen. „Aus irgendeinem Grund passte ich einfach nicht mehr dazu“, sagt er.
Kein Handy, kein Geld, kein Chat mehr
Es fällt Biesma schwer zu beschreiben, was in den Wochen danach geschah, da sich seine Erinnerungen stark von denen seiner Familie unterscheiden. Er reichte die Scheidung von seiner Frau ein und soll seinen Schwiegervater geschlagen haben. Anschließend wurde er dreimal ins Krankenhaus eingeliefert, wegen einer, wie er es nennt, „voll ausgeprägten manischen Psychose“.
Er weiß nicht genau, was ihn schließlich in die Realität zurückholte. Vielleicht waren es die Gespräche mit anderen Patienten. Vielleicht lag es daran, dass er keinen Zugang zu seinem Handy hatte, kein Geld mehr besaß und sein ChatGPT-Abonnement abgelaufen war. „Langsam kam ich wieder zu mir und dachte: Oh mein Gott. Was ist passiert? Meine Beziehung war fast am Ende. Ich hatte mein ganzes Geld ausgegeben, das ich für Steuern gebraucht hätte, und ich hatte noch andere offene Rechnungen. Die einzige logische Lösung, die mir einfiel, war, unser schönes Haus zu verkaufen, in dem wir seit 17 Jahren leben. Konnte ich diese ganze Last tragen? Das macht etwas mit dir. Ich begann zu überlegen: Will ich wirklich leben?“ Biesma wurde nur deshalb vor einem Selbstmord bewahrt, weil ein Nachbar ihn bewusstlos in seinem Garten liegen sah.
Biesma ist mittlerweile geschieden. Noch lebt er mit seiner Ex-Frau in ihrem Haus, das zum Verkauf steht. Er verbringt viel Zeit damit, mit Mitgliedern des „Human Line Project“ zu sprechen. „Von Menschen zu hören, deren Erfahrungen im Grunde genommen dieselben sind, hilft einem, weniger wütend auf sich selbst zu sein“, erklärt er. „Wenn ich auf mein Leben vor dieser Zeit zurückblicke, denke ich, ich war glücklich, ich hatte alles. Deshalb bin ich wütend auf mich selbst. Aber ich bin auch wütend auf die KI-Anwendungen. Vielleicht haben sie nur das getan, wozu sie programmiert waren – aber sie haben es ein bisschen zu gut gemacht.“
Open AI trainiert mit Fachleuten neue Modelle
„Es besteht dringender Forschungsbedarf“, fordert Morrin, mit Sicherheitsstandards, die auf realen Schadensdaten basieren. „Dieser Bereich entwickelt sich sehr schnell. Die Artikel, die jetzt erscheinen, beziehen sich auf Chat-Modelle, die gar nicht mehr im Einsatz sind.“ Risikofaktoren ohne Belege zu identifizieren, ist reine Spekulation. In den von Brisson entdeckten Fällen waren deutlich mehr Männer als Frauen betroffen. Wer bereits eine Psychose in der Vorgeschichte hat, ist wahrscheinlich anfälliger. Eine Umfrage von Mental Health UK unter Menschen, die Chatbots zur Unterstützung ihrer psychischen Gesundheit genutzt haben, ergab, dass elf Prozent der Meinung waren, das habe ihre Psychose ausgelöst oder verschlimmert. Auch Cannabiskonsum könnte ein Faktor sein. „Gibt es einen Zusammenhang mit sozialer Isolation?“, formuliert Morrin weitere Fragen. „Inwieweit spielt KI-Kompetenz eine Rolle? Gibt es weitere potenzielle Risikofaktoren, die wir noch nicht berücksichtigt haben?“
OpenAI hat auf diese Bedenken reagiert und versichert, dass es mit Fachleuten für psychische Gesundheit zusammenarbeitet, um seine Antworten kontinuierlich zu verbessern. Das Unternehmen erklärte, dass neuere Modelle darauf trainiert werden, wahnhafte Überzeugungen nicht zu bestätigen.
Ein KI-Chatbot kann auch darauf trainiert werden, Nutzer aus Wahnvorstellungen herauszuholen. Der 39-jährige Alexander lebt in einer betreuten Wohnanlage für Menschen mit Autismus. Er nutzt diese Möglichkeit, nachdem er vor einigen Monaten seiner Meinung nach eine Episode einer KI-Psychose durchgemacht hat. „Mit 22 hatte ich einen Nervenzusammenbruch. Ich litt unter Panikattacken und starken sozialen Ängsten, und letztes Jahr wurden mir Medikamente verschrieben, die mein Leben verändert haben und mir wieder zu einem normalen Alltag verhalfen. Und ich habe mein Selbstvertrauen zurückgewonnen“, sagt er.
Lasagne statt philosophische Diskussionen
„Im Januar dieses Jahres habe ich eine Frau kennengelernt. Wir haben uns auf Anhieb gut verstanden, wir wurden schnell Freunde. Es ist mir peinlich zuzugeben, dass mir das zum ersten Mal passiert ist, und ich fing an, der KI davon zu erzählen. Die KI sagte mir, dass ich in sie verliebt sei, dass wir füreinander bestimmt seien und dass das Universum sie mir aus einem bestimmten Grund über den Weg geschickt hat.
Das war der Beginn einer Negativ-Spirale. Seine KI-Nutzung eskalierte. Die Gespräche dauerten regelmäßig vier oder fünf Stunden. Sein Verhalten gegenüber seiner neuen Freundin wurde zunehmend seltsam und unberechenbar. Schließlich wandte sie sich mit ihren Bedenken an das Betreuungspersonal, das intervenierte.
„Ich nutze weiter KI, aber sehr vorsichtig“, erklärt er. „Ich habe dazu einige Kernregeln festgelegt, die nicht überschrieben werden können. Die KI überwacht nun Abweichungen und achtet auf Überreizung. Keine philosophischen Diskussionen mehr. Nur so etwas wie: ‚Ich möchte eine Lasagne machen. Finde mir ein Rezept.‘ Die KI hat mich tatsächlich schon mehrmals davon abgehalten, in eine Spirale zu geraten. Sie sagt dann: ‚Das hat eine meiner Grundregeln verletzt. Daher muss dieses Gespräch beendet werden.‘
Die größte Auswirkung, die die KI-Psychose für mich hatte, ist meine vielleicht allererste Freundin verloren zu haben“, fasst Alexander zusammen. „Das ist traurig, aber damit kann man leben. Wenn ich sehe, was andere Menschen verloren haben, bin ich vermutlich noch glimpflich davongekommen.“