Wer will, dass ein Roboter eine Geschichte vorliest? Warum sie 6 Köpfe KI abschlagen

Der schottische Schriftsteller und Kulturkritiker Ewan Morrison war alarmiert und amüsiert zugleich, als er erfuhr, dass er einen Roman mit dem Titel Nine Inches Pleases a Lady geschrieben haben soll. Weil er die Grenzen der künstlichen Intelligenz (KI) austesten wollte, hatte er ChatGPT aufgefordert, ihm die Titel der zwölf von ihm geschriebenen Romane zu nennen. „Tatsächlich habe ich nur neun geschrieben“, erzählt Morrison. „Weil der Chatbot immer alles richtig machen will, beschloss er offenbar, drei zu erfinden.“

Die „nine inches“ aus dem Titel, den die KI sich ausdachte, sind vermutlich aus einem anzüglichen Gedicht des schottischen Dichters Robert Burns Burns geklaut. „Wenn es um die Wahrheit geht, misstraue ich diesen Systemen einfach“, erklärt Morrision. In seinem tatsächlich letzten Buch For Emma geht es um die menschlichen Kosten der KI-Technologie.

Morrison hat ein Auge auf die Fähigkeiten von ChatGPT und OpenAI geworfen, weigert sich aber, sie in seinem eigenen Leben und bei seiner Arbeit einzusetzen. Er ist einer von vielen: Eine wachsende Zahl von Menschen leisten aktiv Widerstand gegen KI. Es sind Leute, die Angst vor ihrer Macht und ihrer potenziellen Schädlichkeit haben und deshalb die Bestie nicht füttern wollen. Es sind Leute, die beschlossen haben, dass das Ganze ziemlicher Blödsinn ist und mehr Probleme als Vorteile bringt. Leute, die Menschen den Robotern vorziehen.

Ewan Morrison (Schriftsteller): „Wenn es um die Wahrheit geht, misstraue ich diesen Systemen“

Wenn man online geht, findet man leicht KI-Anhänger, die Verweigerer als selbstgefällige Hipster abtun. Ich falle möglicherweise in beide Lager, da ich ausgesprochen analoge Interessen habe (Brettspiele, Gartenarbeit, Tierhaltung) und für den Guardian schreibe. Gleichzeitig schwören einige Freunde auf ChatGPT, wenn es um Kindererziehung geht. Ich kenne auch eine Frau, die ChatGPT den ganzen Tag über für ihre Arbeit als Beraterin nutzt. Ich selbst habe den Chatbot hingegen nicht mehr benutzt, seit er 2022 an den Start ging.

Vielleicht hätte ChatGPT ein besseres Ergebnis abgeliefert, aber dieser Artikel wurde mit der Hand hergestellt in meiner eigenen Schreibwerkstatt (Okay, ich meine mein Bett.)

Ich hätte die Gedanken meiner Gesprächspartner auch durch das Plündern ihrer Social-Media-Posts und Forschungsarbeiten erraten können, wie es ChatGPT getan hätte. Aber es hat viel mehr Spaß gemacht, zum Telefon zu greifen und sich von Mensch zu Mensch zu unterhalten. Zwei meiner Interview-Partner wurden durch ihre Haustiere unterbrochen und beide brachten mich auf ihre Art und Weise zum Lachen.

Im sozialen Netzwerk X, in dem Morrison manchmal mit KI-Enthusiasten aneinander gerät, ist eins der üblichen Schimpfwörter: decel („Bremser“). Aber Morrison muss lachen, wenn die Leute denken, dass er es ist, der nicht mithält. „Nichts bremst den Akzelerationismus mehr als das Nichteinhalten von Versprechen. Gegen eine Mauer zu stoßen ist auch ein Weg, um abzubremsen“, erklärt er. Eine jüngere Studie ergab, dass die KI mehr als 60 Prozent der Anfragen falsch beantwortet hatte.

KI-gestützte Waffen in der Ukraine. „Ich finde das ethisch gesehen widerwärtig“

Hineingezogen wurde Morrison in die Diskussion durch das, was er heute als „alarmistische Ängste über das Potenzial von Superintelligenz und unkontrollierbarer KI“ bezeichnen würde. „Je intensiver ich mich damit beschäftige, desto mehr realisiere ich, dass das eine Fiktion ist, die den Investoren der Welt vor die Nase gehalten wird, damit sie Milliarden – tatsächlich eine halbe Billion – in diese Suche nach der künstlichen Superintelligenz investieren. Es ist eine Fantasie, ein Produkt des Risikokapitals, das verrückt geworden ist.“

Es gibt auch Copyright-Verstöße, die ihm schaden. In der Unterhaltungsindustrie, sagt er, werden „KI-Algorithmen eingesetzt, um zu entscheiden, welche Projekte grünes Licht bekommen. Das bedeutet, dass wir darin feststecken, immer nur Vergangenes neu zu erfinden. Die Algorithmen sagen ‚Mehr von dem Gleichen‘, weil das alles ist, was sie können.“

Morrison sagt, seine Liste der Klagen sei lang. „Sie haben sich über die vergangenen paar Jahre angesammelt.“ Er ist besorgt darüber, dass Jobs wegfallen (Bill Gates sagte kürzlich voraus, dass KI zu einer Zwei-Tage-Woche führen würde). Dann sind da „Tech-Abhängigkeit, die ökologischen Auswirkungen und der Schaden für das Bildungssystem“. So nutzen 92 Prozent der Uni-Studierenden in Großbritannien mittlerweile KI. Morrison ist besorgt darüber, wie Technologieunternehmen uns ausspionieren, um die KI zu personalisieren, und entsetzt über den Einsatz von KI-gestützten Waffen in der Ukraine. „Ich finde das ethisch gesehen widerwärtig“.

Andere führen ähnliche Gründe an, warum sie keine KI nutzen.

April Doty (Hörbuchsprecherin): „Wann immer möglich, entscheide ich mich gegen die Nutzung von KI“

Die Hörbuchsprecherin April Doty ist entsetzt über die Umweltkosten: Die für eine KI-Suche und die Antwort erforderliche Rechenleistung ist enorm. „Es ärgert mich maßlos, dass man bei der Google-Suche die KI-Übersicht nicht ausschalten kann“, sagt sie. Wann immer man etwas nachguckt, fackelt man praktisch den Planeten ab.“ Sie hat begonnen, andere Suchmaschinen zu benutzen. „Aber wir sind immer mehr davon umgeben. Es gibt keinen Aus-Schalter. Das macht mich wütend.“ Wann immer möglich, sagt sie, „entscheide ich mich gegen die Nutzung von KI“.

In ihrem eigenen Bereich macht sie sich Sorgen über die Zahl der Bücher, die bereits von Maschinen „vorgelesen“ werden. Audible, der zu Amazon gehörende Hörbuchanbieter, hat gerade angekündigt, dass er ausgewählten Verlagen die Erstellung von Hörbüchern mithilfe seiner KI-Technologie ermöglichen will.

„Ich kenne niemanden, der möchte, dass ein Roboter ihm eine Geschichte vorliest“, sagt Doty. „Aber es bereitet mir Sorge, dass es das Hörerlebnis ruinieren wird, so dass die Leute am Ende keine Hörbuchplattformen mehr abonnieren.“ Sie selbst hat noch keinen Job an die KI verloren. Aber Kollegen schon. Und die Chancen stehen hoch, dass es passieren wird. KI-Modelle können nicht „erzählen“, erklärt sie. „Sprecher lesen nicht einfach Worte; sie spüren und drücken die Gefühle aus, die unter den Worten liegen. KI kann diese Arbeit nicht leisten, weil sie jahrzehntelange Erfahrung darin voraussetzt, ein menschliches Wesen zu sein.“

Emily Bender (Linguistikprofessorin): „Darunter leiden die menschlichen Beziehungen“

Emily Bender, Linguistikprofessorin an der University of Washington und Co-Autorin des neuen Buches The AI Con, hat viele Gründe dafür, warum sie keine Sprachmodelle wie ChatGPT nutzen möchte. „Aber der erste Grund ist vielleicht, dass ich nicht daran interessiert bin, etwas zu lesen, was niemand geschrieben hat“, überlegt sie. „Ich lese, weil ich verstehen will, wie jemand etwas sieht. Aber es gibt keinen ‚jemand‘ in den Maschinen, die synthetische Texte erstellen.“ Das Produkt ist ihrer Meinung nach nichts weiter als eine Collage aus den Worten vieler verschiedener Leute.

Hat sie das Gefühl, „abgehängt“ zu werden, wie KI-Enthusiasten es bezeichnen würden? „Nein, überhaupt nicht. Meine Reaktion darauf ist: Wo bewegen sich denn alle hin?“ Sie lacht, als wenn sie sagen wollte: nirgendwohin Gutes.

„Wenn wir uns statt den authentischen den synthetischen Medien zuwenden, leiden darunter die menschlichen Beziehungen“, ist Bender überzeugt. „Das passiert auf der persönlichen Ebene – also dem, was uns die Verbindung mit anderen Leuten bringt – und der Ebene, bei der es um die Stärke der Gemeinschaft geht.“ Sie zitiert inhaltlich den Forscher im Bereich Überwachung und Datenschutz Chris Gilliard: „Er trifft einen wichtigen Punkt, wenn er sagt, es handele sich um ein technologisches Vorgehen der Unternehmen mit dem Ziel, uns zu isolieren und die Welt so einzurichten, dass alle unsere Interaktionen über ihre Produkte abgewickelt werden. Wir brauchen das nicht. Nicht für uns und nicht für unsere Communitys.“

Trotz Benders öffentlich bekannter Haltung – sie ist seit langem eine prominente Kritikerin von Large Language Models (LLMs) – hat sie es erlebt, dass Studierende ihr von einer KI erstellte Arbeiten einreichen. „Das ist sehr traurig.“ Dabei will sie die Studierenden nicht kontrollieren oder gar tadeln. „Mein Job ist sicherzustellen, dass die Studierenden verstehen, warum sich an ein LLM zu wenden bedeutet, dass sie sich selbst die Möglichkeit nehmen, etwas zu lernen.“

Ist sie der Meinung, dass man KI boykottieren sollten? „Boykott klingt nach organisierter politischer Aktion. Ja sicher, warum nicht?“, antwortet sie. „Ich glaube aber auch, dass die Einzelnen persönlich besser dran sind, wenn sie sie nicht nutzen.“

Tom (IT-Mitarbeiter): „Möglicherweise muss ich die Moral beiseitelassen“

Einige Leute haben bisher widerstanden, stellen aber widerwillig fest, dass sie die KI am Ende doch nutzen werden. Tom, der im IT-Bereich für die britische Regierung arbeitet, nutzt KI nicht für seine eigentliche Arbeit. Aber er bemerkte, dass Kollegen sie für andere Aufgaben einsetzen. Über eine Beförderung wird zum Teil anhand der jährlichen Beurteilungen entschieden, die sie verfassen müssen.

Daher fragte Tom einen Vorgesetzten, dessen Bewertung ihn beeindruckt hatte, wie er das gemacht hatte. Weil er dachte, er hätte Tage damit verbracht. „Ich habe nur zehn Minuten gebraucht – ich habe ChatGPT benutzt“, habe der geantwortet. „Er riet mir, das auch zu tun, was ich aber ablehnte. Seine Reaktion war: ‚Nun gut, aber du wirst wahrscheinlich nicht weit kommen, wenn du es nicht tust‘.“ KI zu nutzen, käme ihm wie Betrügen vor. Aber Tom hat Sorge, dass er andernfalls ins Hintertreffen gerät. „Ich habe fast das Gefühl, als hätte ich an diesem Punkt keine andere Wahl, als KI zu nutzen. Möglicherweise muss ich die Moral beiseitelassen.“

Steve Royle (Professor): „Ich werde es auf keinen Fall dafür nutzen, irgendeinen Text zu erstellen“

Andere wiederum schränken trotz ihrer Vorbehalte die Nutzung nur ein, und zwar auf bestimmte Aufgaben. Steve Royle, Professor für Zellbiologie an der University of Warwick, etwa verwendet ChatGPT für die „Routinearbeit“ beim Schreiben von Computercodes zur Datenanalyse. „Aber das ist wirklich das höchste der Gefühle. Ich möchte nicht, dass es den Code von Grund auf neu schreibt. Wenn man das einen Chatbot machen lässt, braucht man hinterher mehr Zeit, um die Fehler wieder herauszunehmen.“

Seiner Ansicht nach ist es Zeitverschwendung, wenn man versucht, die KI zu viel für einen machen zu lassen. Ob das stimmt oder nicht: Er befürchtet auch, dass seine Programmierkenntnisse verkümmern, wenn er sich zu sehr auf die KI verlässt. „Die KI-Enthusiasten sagen ja: ‘Keine Sorge, am Ende braucht niemand mehr irgendwas zu wissen.’ Das sehe ich nicht so.“

Ein Teil seines Jobs ist es, Forschungsaufsätze und Förderungsvorschläge zu verfassen. „Ich werde es auf keinen Fall dafür nutzen, irgendeinen Text zu erstellen“, sagt Royle. „Für mich ist es so, dass man während des Schreibens seine Ideen formuliert und durchs Überarbeiten und Redigieren kristallisiert sich erst richtig heraus, was man sagen will. Das eine Maschine machen zu lassen, ist nicht Sinn der Übung.“

Justine Bateman (Filmemacherin): „KI ist eine der schlechtesten Ideen, die sich unsere Gesellschaft je ausgedacht hat“

Für die US-amerikanische Filmemacherin und Autorin Justine Bateman ist generative KI „eine der schlechtesten Ideen, die sich unsere Gesellschaft je ausgedacht hat“. Sie verabscheue, wie sie uns entmündige: „Sie versuchen, die Leute davon zu überzeugen, dass sie Dinge nicht können, die sie ohne Probleme jahrelang getan haben – E-Mails schreiben, eine Präsentation erstellen. Wenn deine Tochter möchte, dass du ihr eine Gute-Nacht-Geschichte über Hundewelpen erfindest – soll das die KI für dich schreiben.“

„Wir werden an den Punkt kommen“, sagt sie mit einem grimmigen Lachen, „dass wir im Grunde nur noch eine Hauthülle mit Organen und Knochen sind, nichts weiter. Sie werden nichts wissen und man wird Ihnen immer wieder sagen, dass Sie etwas nicht können. Das ist das Gegenteil dessen, was das Leben zu bieten hat. Vor allen möglichen Entscheidungen zu kapitulieren, etwa, wohin man in den Urlaub fährt, was man heute anzieht, mit wem man ausgeht, was man isst. Das machen viele Leute jetzt schon.“

Man werde dann auch keine Trauer mehr verarbeiten müssen, denn man habe Fotos und Sprachnachrichten von der gerade verstorbenen Mutter hochgeladen. „Und dann kann sie jeden Tag per KI-Videoanruf mit Ihnen sprechen“, prophezeit Bateman. „Auf eine oder andere Weise wird das zur Zerstörung der Menschheit führen – lange bevor es eine Nuklearkatastrophe gibt –, und zwar durch emotionale Aushöhlung der Menschen.“

Was KI mit Frankenstein und Junkfood zu tun hat

Daran hat sie keinerlei Interesse. „Es ist genau gegenläufig dazu, wo ich als Filmemacherin und Autorin hinwill. Generative KI ist wie ein Mixer – man gibt extrem viele Beispiele für etwas in der Art ein, was man will, und sie wird einem einen Frankenstein-Löffel davon ausspucken.“ Für die Filmemacherin ist das Diebstahl und Wiederkäuen. „Daraus kann nichts Originelles entstehen. Das liegt in der Natur der Sache. Jeder, der generative KI benutzt und sich für einen Künstler hält, schiebt seiner Kreativität einen Riegel vor.“

Einige Studios wie das Animationsstudio Ghibli haben dem Einsatz von KI abgeschworen, andere dagegen zeigen großes Interesse. 2023 sagte Dreamworks-Gründer Jeffrey Katzenberg, dass KI die Kosten für seine animierten Filme um 90 Prozent senken würde. Filmemacherin Bateman ist überzeugt, dass das Publikum die von KI erstellten Inhalte bald satthaben wird. „Die Menschen reagieren darauf genauso wie auf Junkfood“, sagt sie voraus. „Für manche köstlich künstlich, wenn auch ohne Nährwert – aber viele von uns werden sich abwenden.“

Sie gründete daher im vergangenen Jahr die Organisation „Credo 23“ sowie ein gleichnamiges Filmfestival, um Filme zu zeigen, die ohne Einsatz von KI gemacht wurden. Es sei praktisch ein „Bio-Label für Filme, das dem Publikum versichert, dass keine KI im Einsatz war“. Und sie ist sich sicher, dass die Leute „nach etwas Rohem, Realen und Menschlichen hungern“ werden.

April Doty: „Wir bewegen uns wie Zombies in Richtung einer Welt, in der niemand wirklich leben will“

Im Alltag versucht Bateman „in einem Parallel-Universum zu sein, in dem ich KI weitgehend meide.“ Nicht, dass sie „Anti-Tech“ sei, betont sie. „Ich habe einen Studienabschluss in Informatik. Ich liebe Technologie. Ich liebe auch Salz, aber ich mache es nicht auf alles drauf.“ Tatsächlich sind alle, mit denen ich spreche, auf irgendeine Weise technophil.

Doty beschreibt sich selbst als „sehr Tech-affin“. Aber sie fügt hinzu, dass ihr auch die Verbindung zwischen den Menschen sehr wichtig sei und die KI diese bedrohe. „Wir bewegen uns wie Zombies in Richtung einer Welt, in der niemand wirklich leben will.“ Royle programmiert und betreibt Server, bezeichnet sich aber auch als „KI-Verweigerer aus Gewissensgründen“. Bender ist auf Computerlinguistik spezialisiert und wurde vom Time-Magazin in die Liste der 100 wichtigsten KI-Experten des Jahres 2023 aufgenommen.

„Ich bin Tech-Expertin“, sagt sie, „aber ich glaube, dass Technologie von Communitys für ihre eigenen Interessen eingesetzt werden wollte, nicht von großen Unternehmen in deren Interesse.“