Das schummelnde Klassenzimmer: Sind Chatbots eine Gefahr zu Gunsten von den Schulunterricht?
Vor zwei Jahren, im Alter von 39 Jahren, begann ich eine Ausbildung zum Schullehrer. Ich wollte Englisch unterrichten – um jungen Menschen zu helfen, bessere Leser, Schreiber und Denker zu werden und eine tiefere Verbindung zur Literatur aufzubauen.
Nach 15 Jahren als freiberuflicher Autor und Romanautor war ich überzeugt, dass ich etwas zu bieten hatte. Aber je weiter ich in meiner Ausbildung vorankam, desto unsicherer wurde ich. Eine Frage quälte mich besonders, weil ich keine Antwort auf sie hatte. Was tun mit der künstlichen Intelligenz (KI)?
Das unmittelbare Dilemma: Was bedeutet es für den Erstsprachen-Unterricht, also Englisch in den USA oder Deutsch in Deutschland, dass alle Schüler und Schülerinnen heute Zugang zu kostenlosen Online-Chatbots haben, die auf Abruf flüssige, recht komplexe Prosa produzieren können?
Endlose Werbung von Technologieunternehmen, die mir versprachen, mir bei der Auseinandersetzung mit diesen dringenden Fragen zu helfen
Diese Frage ist die oberste auf einem wackeligen Stapel zeitloser, vertrackter pädagogischer Probleme: Was versuchen wir eigentlich in der Schule zu erreichen? Wie sollen wir dabei vorgehen? Woher wissen wir, ob wir erfolgreich waren? Ich war neu dabei und musste mich zum ersten Mal mit all diesen Fragen auseinandersetzen. Auch noch KI in diesen Mix zu werfen, fühlte sich an, als würde man mitten in einer Panikattacke einen Kaffee runterkippen.
Ich begann verzweifelt nach Ansichten zu KI und dem Unterricht in der Erstsprache zu suchen, wo immer ich sie finden konnte: in Pädagogik-Podcasts, Pädagogik-Substacks, Pädagogik-YouTube-Kanälen. Meine algorithmischen Feeds nahmen mein Interesse auf, begannen, darauf einzugehen, indem sie mir eine scheinbar unendliche Menge an Inhalten lieferten – darunter auch endlose Werbung von Technologieunternehmen –, die mir versprachen, mir bei der Auseinandersetzung mit diesen dringenden Fragen zu helfen und sicherzustellen, dass ich meinen Schülern gerecht wurde.
Schnell wurde mir klar, dass es sich um ein Gebiet hitziger, oft erbitterter Debatten handelte. Auf der einen Seite (um es etwas zu vereinfachen) standen die KI-Gegner: Lehrer und Bildungsexperten, für die KI nichts weniger als ein existenzieller Angriff gieriger Technologieunternehmen auf die bestimmenden Aktivitäten im Klassenzimmer ist.
Was Schüler brauchen, sei zu lernen, wie sie sich durch Schwierigkeiten hindurchkämpfen können, argumentierten sie: komplexe Texte zu lesen und komplexe Argumente zu entwickeln. Sie sollten lernen, dass diese Prozesse voller Reibungen und Unsicherheiten sind, und diese Tatsache akzeptieren, anstatt vor ihr zu fliehen. Der Zugang zu einem Textgenerator, der mit einem Klick bedient werden kann, macht es zu einfach, vor dieser Aufgabe davonzulaufen.
KI-Gegner erzählten Horrorgeschichten von Schülern
Die KI-Gegner erzählten Horrorgeschichten von Schülern, die KI-generierte Arbeiten einreichten, zu denen sie nicht einmal die einfachsten Fragen beantworten konnten. Andere würden existierende Quellen zitieren, die ihre Chatbots „frei erfunden“ hatten. Sie veröffentlichten Studien, die darauf hindeuteten, dass der Einsatz von Chatbots das Denkvermögen der Schüler beeinträchtigte oder sogar die physische Entwicklung ihres Gehirns behinderte.
Sie äußerten ethische Bedenken, darunter die Umweltkosten der KI, die Abhängigkeit von Chatbots von urheberrechtlich geschützten Texten und die oligarchischen Tendenzen großer Tech-Unternehmen.
Für die meisten Gegner bestand die Lösung darin, einen Unterricht zu schaffen, in dem KI keine Rolle spielte. Sie sprachen davon, im Unterricht Aufsätze zu schreiben, die mit der Hand geschrieben werden sollten. Sie diskutierten die Machbarkeit, wieder mehr mündliche Prüfungen und Abfragen einzuführen.
Auf der anderen Seite standen die KI-Applaudierer. Ich spreche hier nicht von ihren verrückten Onkeln, den meist männlichen Tech-Managern, die wie besessen davon schwärmten, dass KI bald das Ende der Schule, wie wir sie kennen, bedeuten würde – oder dass das Lesen von Büchern reine Zeitverschwendung sei.
Chatbots können leistungsstarke Lehrassistenten sein, statt als „Schummelmaschinen“ zu fungieren
Ich spreche von Lehrern und Experten, die – oft sehr leidenschaftlich – argumentierten, dass KI trotz aller pädagogischen Risiken auch großes Potenzial habe. Anstatt als „Schummelmaschinen“ zu fungieren, könnten Chatbots leistungsstarke Lehrassistenten sein, die in der Lage sind, sich gleichzeitig mit jedem Schüler in einer Klasse auseinanderzusetzen, sicherzustellen, dass jeder genau dann individuelles Feedback erhält, wenn es gebraucht wird, und jeden Schüler behutsam auf seinem individuellen Weg zu maximalem Lernerfolg zu begleiten.
Aus der Sicht der Befürworter zeugte der Instinkt der Ablehner, KI-Tools zu meiden, von einem Mangel an Verständnis für deren Möglichkeiten. Zudem erwiesen die KI-Gegner ihren Schülern damit einen schlechten Dienst, da sie die Schule verlassen würden, ohne technische Fähigkeiten erworben zu haben, die sie an der Universität und in ihrer zukünftigen Karriere zu ihrem Vorteil nutzen könnten.
Während ich mich durch die Argumente von Gegnern und den Befürwortern kämpfte und versuchte, ihren gegensätzlichen Einsatz von Statistiken und wissenschaftlichen Studien zu analysieren, wuchs meine Besorgnis. Mir ist etwas an Lehrern aufgefallen, mich selbst eingeschlossen. Weil wir unsere Verantwortung so ernst nehmen, haben wir oft Angst, das „Falsche“ zu tun: ineffektive oder diskreditierte Unterrichtsstrategien anzuwenden und unseren Schülern nicht das zu geben, was sie brauchen.
Wir glauben – oft aus eigener Erfahrung –, dass gute Lehrer das Leben von Menschen verändern können; wir wissen, dass auch wirklich schlechte Lehrer Spuren hinterlassen können, besonders in Fächern wie Englisch, wo sie oft die Ursache für das sind, was die Lehrerin und Autorin Kelly Gallagher als „Readicide“ bezeichnet: das Auslöschen der Freude am Lesen. Wir wollen sehr stark zur richtigen Sorte Lehrer gehören, und haben Angst, einer von den schlechten zu sein.
Ich wollte die KI für den Unterricht nutzen, schloss mich aber den Kritikern an
Hinter dieser Angst verbirgt sich meiner Meinung nach eine noch grundlegendere: die Angst, als realitätsferne Verlierer angesehen zu werden – ganz zu schweigen von der Angst, tatsächlich welche zu sein –, die sich mit Kindern im Klassenzimmer verstecken, weil es in der sich ständig wandelnden Welt der Erwachsenen keinen anderen Ort gibt, an den sie wirklich passen. Ich kenne diese Angst nur zu gut.
Ich war einerseits fest entschlossen, mich nicht vom Tech-Hype blenden zu lassen. Andererseits wollte ich mich aber auch nicht selbst auf den falschen Weg bringen, indem ich mich weigerte, ein potenziell nützliches neues Werkzeug überhaupt in Betracht zu ziehen.
Alles, was ich brauchte, war eine vorläufige Einschätzung. Es ging nicht darum, zu entscheiden, ob KI ein teuflischer Schwindel oder die Zukunft von allem ist. Auch nicht darum, zu entscheiden, was KI für die gesamte Zukunft der Bildung bedeutet. Ich musste mir überlegen, was KI für meinen Englischunterricht an der Highschool bedeutete.
Nervös lud ich weitere Podcasts herunter, überflutete meinen Posteingang mit noch mehr Substack-Angeboten und schaute mir weitere YouTube-Videos an, in der Hoffnung, dass ich durch noch mehr Material zu diesem Thema meine Chancen erhöhen könnte, alles richtig zu machen – oder zumindest meine Angst, alles falsch zu machen, etwas zu dämpfen.
Im vergangenen Frühjahr begann ich, 15 Stunden pro Woche bei einer erfahrenen Englischlehrerin an einer großen Schule in einem Vorort von Chicago zu hospitieren: an einem Ort, an den Familien „wegen der Schulen“ ziehen. Die Lehrerin – nennen wir sie Emily – unterrichtete zwei Altersgruppen: 14-Jährige, die gerade mit der High School begonnen hatten, und 18-Jährige, die kurz vor dem Abschluss standen. Was ich dort sah, veranlasste mich sofort, mich den KI-Kritikern anzuschließen.
Ich lernte die einzigartige Verzweiflung kennen
Ich erlebte all die negativen Auswirkungen, von denen man in Artikeln über KI und den Unterricht liest: vollständig von KI generierte Aufsätze, von KI erfundene Zitate, angespannte Gespräche zwischen Lehrerin und Schülern darüber, was genau beweisbar war.
Ich saß Emily bei der Korrektur der Aufsätze zur Seite und zerbrach mir ebenso wie sie den Kopf über zweideutige Fälle, wobei wir versuchten, den Unsinn der Schüler vom Unsinn der KI zu unterscheiden und echte Fortschritte der Schüler von KI-gestützten Optimierungen.
Ich war vor allem deshalb Lehrer geworden, weil ich mich intensiv mit den Texten junger Menschen beschäftigen und ihnen meine volle Aufmerksamkeit widmen wollte. Als ich Emily über die Schulter schaute, sah ich, wie die Präsenz der KI (oder schon allein ihre potenzielle Präsenz) diesen Vorgang beeinträchtigte. Ich lernte die einzigartige Verzweiflung kennen, die entsteht, wenn man eine Arbeit betrachtet und, anstatt herauszufinden, wie man am besten darauf reagiert, versucht zu ergründen, wie sie entstanden ist.
Wir Lehrer werden ständig mit KI-Angeboten bombardiert
Außerdem fiel auf, wie Lehrer selbst ständig mit Angeboten für KI-Unterstützung bombardiert werden. Das geschieht nicht nur per E-Mail und über Werbung in sozialen Medien, sondern – eigentlich sogar noch häufiger – durch KI-Tools, die in die E-Mail- und Notenverwaltungssoftware ihrer Schulen integriert sind.
Emilys Schüler verfügten alle über von der Schule ausgegebene Laptops. Auf dem Computer der Lehrerin war ein Programm installiert, mit dem sie den Inhalt jedes einzelnen Bildschirms ihrer Schüler überwachen konnte. Alle wurden gleichzeitig auf dem Bildschirm angezeigt, in einem Raster, das an eine Reihe von Überwachungsmonitoren erinnerte. Die Nutzung dieses Programms war immer wieder beunruhigend – „Big Brother, c’est moi“ – und immer wieder faszinierend.
Einige Schüler nutzten KI überhaupt nicht, zumindest nicht im Unterricht. Andere griffen bei jeder Gelegenheit darauf zurück und gaben fast schon reflexartig jede Frage ein, an der sie gerade arbeiteten. Mindestens ein Schüler hatte die Angewohnheit, jedes neue Thema in ChatGPT einzugeben, um sich Notizen generieren zu lassen, auf die er zurückgreifen konnte, falls er aufgerufen wurde.
Ich war über den gesunkenen Lesestandard von Teenagern bestürzt
Häufig beobachtete ich, wie Schüler zur Nutzung von KI hingeführt wurden, auch wenn sie nicht unbedingt danach gesucht hatten. Ich gewöhnte mich daran, zu beobachten, wie ein Schüler ein Thema googelte („Schlüsselthemen in Romeo und Julia“), die KI-generierte Antwort las, die mittlerweile ganz oben in den meisten Google-Suchergebnissen erscheint, auf „Im KI-Modus tiefer eintauchen“ klickte – und plötzlich mit Gemini, Googles Chatbot, chattete, der stets bereit war, für seine eigenen Fähigkeiten zu werben. „Soll ich auf eines oder mehrere dieser Themen näher eingehen? Soll ich einen ersten Absatz für einen Aufsatz zu diesem Thema schreiben?“
Emily erzählte mir, dass der Großteil der von ihr aufgegebenen Lektüre im Unterricht stattfinden müsse und sie vieles davon laut vorlese, besonders zu Beginn des Schuljahres. Ich war schockiert. Ich hatte zwar zahlreiche Zeitungsartikel über die „aktuelle Lesekrise“ gelesen, aber es war dennoch bestürzend, den gesunkenen Lesestandard von Teenagern in der Praxis zu erleben. Als ich mich entschied, Lehrer zu werden, war mein Kopf voller romantischer Visionen, in denen ich Schüler („O Captain, my Captain!“) dazu anleitete, die Auseinandersetzung mit literarischer Komplexität und deren Verbindungen zum Leben aufzunehmen.
In diesen Visionen fand das Lesen selbst meist abseits der Kamera statt, außerhalb der Klassenzimmerwände. Was bedeutete es für meine Lehrer-Ambitionen, dass so viele meiner Schüler nicht in der Lage schienen, selbstständig zu lesen – und sich so viele von ihnen, wenn es ums Schreiben ging, reflexartig der KI zuwandten? Ich fragte mich niedergeschlagen, ob ich mich für etwas entschieden hatte, das unaufhaltsame Kräfte der Geschichte kurz davor waren, auszulöschen.
Doch dann sah ich, wie Emily der Klasse vorlas, und meine Stimmung hellte sich auf. Ich war noch nicht lange da, als die jüngeren Klassen begannen, Im Westen nichts Neues zu lesen. Die erste Reaktion der Schüler war, ungläubig zu fragen: „Müssen wir wirklich noch ein ganzes Buch lesen?“ Dann fanden sie mit Emilys Hilfe den Einstieg: der Erste Weltkrieg, junge deutsche Soldaten, Grabenkrieg, der Verlust der Unschuld, die psychische Belastung durch die tägliche Nähe zum Tod, die Entfremdung von der Heimatfront.
Laptops waren ebenso wie Handys weggepackt. (Gemäß den Schulvorschriften lagen sie in Beuteln an der Klassenzimmertür.) Alle wussten, dass sie jederzeit die Hand heben konnten, um nachzufragen oder etwas zu sagen. Manchmal hielt Emily inne, um Passagen hervorzuheben, von denen sie vermutete, dass sie Verwirrung stifteten. Oder sie versuchte, Fehlinterpretationen vorzubeugen, derer sich die Schüler gar nicht bewusst waren, oder Sätze zu besprechen, die vielfältige Interpretationsmöglichkeiten boten. Tag für Tag und meist in kaum wahrnehmbaren kleinen Schritten verwandelte sich das Buch von einem imposanten Monolithen in einen vertrauten Begleiter.
Der KI-freie Unterricht war inspirierend
Irgendwann hörten die Schüler auf, sich zu beschweren, und ließen sich auf die Geschichte ein: Sie wollten unbedingt wissen, wie alles ausgeht, hielten bei dramatischen Wendungen den Atem an und fragten sich laut und mitfühlend, warum die Figuren taten, was sie taten. Warum hatte Erich Maria Remarque es so geschrieben?
Und dann, eines Tages, geschah es: Ein Raum voller amerikanischer 14-Jähriger im Jahr 2025 befand sich in einer Geschichte über deutsche 19-Jährige in den 1910er Jahren und betrachtete gleichzeitig das Buch durch die Linse ihres eigenen Lebens und ihr Leben durch die Linse des Buches. Ich konnte es förmlich spüren: Der Raum knisterte leise vor den sich kreuzenden Energielinien zwischen Schülern und Lehrerin und Worten, die fast ein Jahrhundert zuvor erstmals zu Papier gebracht worden waren.
Die Manipulationen durch KI, die ich miterlebt hatte, waren deprimierend; der KI-freie Unterricht dagegen inspirierend. Bevor meine Hospitationszeit zu Ende ging, ließ Emily mich selbst einige Lesestunden leiten, und einige Male verspürte ich ein Hochgefühl, das meinen ganzen Körper durchströmte. Ich hätte es am liebsten von den Dächern geschrien: Ich bin KI-Gegner – und stolz darauf!
Im Laufe des Sommers kehrten meine Zweifel jedoch langsam zurück. So bewegend die Lesezeit in Emilys Klasse gewesen war: Mir war klar, dass sie nicht wirklich alle (oder auch nur eine) meiner Fragen zu KI und Unterricht beantwortet hatte. Ich wusste, dass ich im Herbst zurückkehren würde, diesmal als Referendar, und den Großteil der Verantwortung für die Unterrichtsplanung und die Benotung übernehmen würde. Ich musste Entscheidungen treffen, vor allem was das Schreiben betraf. Was sollte ich die Schüler angesichts meiner Bedenken bezüglich Chatbots schreiben lassen? Und wann und wie?
Intrapersonelle Gespräche: Me, myself and I
Weil ich so viele Inhalte zum Thema KI und Unterricht verschlungen hatte – und dies auch weiterhin tat –, konnte ich in meinem Kopf eine interne Debatte zwischen radikal unterschiedlichen Standpunkten führen.
Ich: „Das gemeinsame Lesen als Klasse, ganz ohne KI oder Geräte, hat sich toll angefühlt. Das weiß ich ganz sicher. Das möchte ich als Ausgangspunkt nehmen.“
Auch ich: „Aber was haben die Schüler wirklich gelernt? Woher weißt du das?“
Ich: „Nun, ich konnte mitverfolgen, wie sich ihre Gedanken in Echtzeit entwickelten.“
Auch ich: „Aber hat sich wirklich jeder einzelne Schüler beteiligt?“
Ich: „Nein. Aber sie haben danach alle viel geschrieben – im Klassenzimmer, mit der Hand – und ich konnte das lesen.
Auch ich: „Nachdem du gelesen hast, was sie geschrieben haben, glaubst du wirklich, dass jeder Schüler so viel gelernt hat, wie er theoretisch hätte lernen können? Haben sie alle alles gelernt, was du von ihnen wolltest?“
Ich: „Nun ja … vermutlich nicht. Nicht alle. Nicht alles.“
Auch ich: „Was wäre, wenn die Schüler nach ihrer KI-freien Lektüre und Diskussion, wenn sie sich hinsetzten, um zu schreiben, jeweils Zugang zu einem KI-Chatbot hätten, der ihnen Feedback geben könnte, das genau auf ihren aktuellen Verständnisstand und Lernstil zugeschnitten ist? Was wäre, wenn ich als Lehrer diesen Chatbot trainieren könnte, um sein Verhalten genau auf meine Ziele für die Aufgabe und die Klasse insgesamt abzustimmen?“
Ich: „Nun, das ist bereits meine Aufgabe – ihnen ein individuelles Feedback zu geben.“
Ich weiter: „Aber wie viel Zeit hast du dafür? Kannst du wirklich jedes Mal eingreifen, wenn es sinnvoll wäre? Was ist, wenn deine Schüler zu Hause schreiben? Was ist, wenn es der Abend vor der Abgabe einer Aufgabe ist und sie einen völlig falschen Start hingelegt haben? Warum solltest du nicht wollen, dass sie das wissen?“
Ich: [stark schwitzend] …
Ich begann zu experimentieren und dachte: „Mach es nicht zu glatt“
Im Sinne der Sorgfaltspflicht begann ich, mit KI herumzuexperimentieren, darunter auch mit speziell für den Unterricht entwickelten oder mit einem mit sogenanntem „Schülermodus“ ausgestatteten Chatbot. Zunächst testete ich ihre Fähigkeit, das denkbar Schlimmste zu tun: eine meiner Aufgaben zu nehmen, ein paar einfache Anweisungen hinzuzufügen – „Es soll so klingen, als wäre es von einem 15-jährigen Schüler geschrieben worden“, „Bitte füge eine realistische Prise gängiger Tipp- und Grammatikfehler ein“, „Mach es nicht zu glatt“ – und etwas zu generieren, das ich nicht von einem Schülertext unterscheiden konnte.
In den glücklichen Tagen des Jahres 2023 galt es als unumstößliche Gewissheit, dass maschinell verfasste Texte von einem Lehrer sofort erkannt werden konnten. Ich kann jedoch berichten, dass das heute, sei es nun gut oder schlecht, einfach nicht mehr der Fall ist.
Als Nächstes testete ich Chatbots bei weniger offensichtlich heiklen Anwendungsfällen, wie zum Beispiel dem Kommentieren von Entwürfen oder der Beantwortung klärender Fragen zu Aufgaben. Die Leistung variierte von Bot zu Bot, aber einige waren darin sehr gut. Tatsächlich war ich so beeindruckt, dass ich begann, diesen Bots gelegentlich Entwürfe meiner eigenen Zeitschriftenartikel vorzulegen. Hin und wieder erhielt ich sofortiges Feedback, das sich wirklich nützlich anfühlte. Als ich an meinem Computer saß, hatte ich das Gefühl, eine imaginäre Gruppe von Cheerleadern versammelte sich hinter mir, bereit, einen Sieg zu feiern.
Dank der Struktur der Lesezeit war die Möglichkeit, aufmerksam zu sein, immer zum Greifen nah
Immer wieder dachte ich zurück an die Lesezeit in Emilys Klassenzimmer, und ich versuchte zu analysieren, was daran so besonders gewesen war. Ein Teil davon war, wie diese Aktivität die Aufmerksamkeit aller strukturierte. Da alle Laptops und Handys weggepackt waren, waren alle jederzeit voll und ganz bei der Sache. Es war wirklich erstaunlich zu beobachten.
Das war natürlich nur ein Scherz. Es war ja Schule. Ein Teil der kollektiven Aufmerksamkeit der Klasse war bei all den Dingen, über die Teenager nachdenken müssen. Der Test in der nächsten Stunde. Ihre Pläne für das Wochenende – oder die beunruhigende Tatsache, dass sie keine hatten. Ob ihr Schwarm ihre Gefühle erwiderte. Der Streit, den sie am Abend zuvor zwischen ihren Eltern mitbekommen hatten.
Die Anwesenheit von ICE-Beamten in der Nachbarschaft. Doch dank der Struktur der Lesezeit war die Möglichkeit, aufmerksam zu sein, immer zum Greifen nah. Ein Schüler konnte sich wieder darauf konzentrieren, ohne unterwegs von den Verlockungen eines hellen, scrollbaren Bildschirms abgelenkt zu werden – einem stets aktiven Portal zu weiteren Ablenkungen.
Wie kann die KI helfen, den Unterricht zu verbessern?
Es war gut – da war ich mir sicher –, eine gewisse erzwungene Trennung zwischen dem Lernen und den Verlockungen der Technik zu haben. Mein erster Impuls war, diese Trennung so weit wie möglich auch auf ihre Schreibprozesse anzuwenden. Ist es möglich, einen Chatbot zu entwickeln, der zuverlässig nützliches Feedback zum Schreiben gibt? Vielleicht. Kann die Häufigkeit des Chatbot-Feedbacks so reguliert werden, dass sie nicht zur Krücke werden?
Wahrscheinlich. Kann einem Chatbot angeordnet werden, den Schülern keine „One-Click“-Umschreibungen anzubieten? Ja. Aber jeder Schüler – beschäftigt, überfordert, nervös beim Schreiben, begierig darauf, die Hausaufgaben für den Abend oder das Wochenende hinter sich zu bringen – weiß, dass diese arbeitssparenden Optionen im öffentlichen Internet nur einen Klick entfernt sind.
Genauso wenig wie ich Handys aus der Welt der Schüler verbannen kann, konnte ich Chatbots aus ihrer Welt verbannen. Ich konnte lediglich entscheiden, wie stark ich die Schüler in ihre Richtung lenken und wie sehr ich sie zu anderen Erfahrungen anregen würde.
Ich: „Also … ich denke, im Herbst werde ich versuchen, den Unterricht so KI-frei wie möglich zu gestalten. Ich glaube, was die Schüler am meisten brauchen, sind kontinuierliche Lese- und Schreibübungen – mit all den Schwierigkeiten und Unsicherheiten, die diese Prozesse mit sich bringen –, ohne dass technische Ablenkungen ins Spiel kommen.“
Aber kann man sein Denkvermögen steigern, wenn man noch gar nicht gelernt hat, wie man denkt? Lese ich nicht ständig Interviews mit Führungskräften aus dem Silicon Valley, in denen sie beschreiben, wie sie den Zugang ihrer eigenen Kinder zum Internet und zu Bildschirmen streng einschränken?
Auch ich: „Aber zu lernen, mit technischen Ablenkungen umzugehen, gehört zum Leben dazu. Und sicher werden sie in Zukunft KI brauchen, um ihr Denkvermögen zu steigern und auf dem Arbeitsmarkt wettbewerbsfähig zu sein.“
Ich: „Vielleicht. Aber kann man sein Denkvermögen steigern, wenn man noch gar nicht gelernt hat, wie man denkt? Lese ich nicht ständig Interviews mit Führungskräften aus dem Silicon Valley, in denen sie beschreiben, wie sie den Zugang ihrer eigenen Kinder zum Internet und zu Bildschirmen streng einschränken?“
Auch ich: „Könnte es sein, dass du hier einige deiner eigenen Sorgen darüber projizierst, wie viel Zeit du online verschwendest und wie viel besser und erfolgreicher du als Autor wärst, wenn jemand sie einfach für dich ausschalten würde?“
Ich: „Das ist möglich, ja.“
Lehren gehört laut Freud zu den „unmöglichen Berufen“. Man kann niemals von einem vollständigen Erfolg sprechen oder gar mit Sicherheit wissen, welche Auswirkungen das eigene Tun tatsächlich hat. (Schlimmer noch: „Man kann sich im Voraus sicher sein, dass man unbefriedigende Ergebnisse erzielen wird.“) Den ganzen Herbst über habe ich mir diesen Gedanken täglich ins Gedächtnis gerufen, um mich damit zu trösten, wie zutiefst unsicher ich mich bei fast allem fühlte, was ich tat.
Ich verbrachte viel Zeit damit, mir unkonventionelle Schreibaufgaben auszudenken
Als ich Unterrichtszeit dem Lesen widmete, fühlte sich das großartig an. Doch dann machte ich mir Sorgen, dass ich es vielleicht übertrieb, weil es sich so gut anfühlte – sozusagen das pädagogische Äquivalent dazu, sich gesund ernähren zu wollen, indem man nur Spinat isst.
Als ich die Schüler ihre Aufsätze komplett im Unterricht schreiben ließ, fühlte ich mich tugendhaft, weil ich die gehirnverrottende Abkürzungsmaschine der großen Tech-Konzerne verbannt hatte. (Das Bild von Ian McKellen als Gandalf, der dem monströsen, hoch aufragenden Balrog standhaft gegenübersteht und brüllt: „Du kommst hier nicht vorbei!“, wurde zu meinem ständigen Begleiter.)
Wenn ich dann abends auf die Herausforderungen des Tages zurückblickte, machte ich mir Sorgen, dass ich den Schülern – indem ich die Arbeit an schriftlichen Aufgaben auf die Unterrichtszeit beschränkte – genau jene Aspekte des Schreibens vorenthielt, die ich am meisten schätzte: die miteinander verflochtenen Frustrationen und Freuden, das Geschriebene auseinanderzunehmen und neu zusammenzusetzen, den Weg von Entwurf zu Entwurf, die Erfahrung, über einen längeren Zeitraum mit einem Text zu leben, und die Art und Weise, wie die Auseinandersetzung mit ihm den Rest des Lebens prägt und von ihm geprägt wird.
Wenn ich anspruchsvollere Aufgaben stellte und den Schülern die dafür erforderliche zusätzliche Zeit einräumte – darunter zwangsläufig auch Zeit ohne Aufsicht –, fühlte ich mich wieder tugendhaft. Doch dann drängten sich Bilder davon vor mein geistiges Auge, wie meine Schüler zu Hause meine Anweisungen in ChatGPT, in Gemini, in Claude, in Copilot oder in Grammarly eintippten.
Ich verbrachte viel Zeit damit, mir unkonventionelle Schreibaufgaben auszudenken, die so gut durchdacht – so verdammt interessant – und so gar nicht wie die starren, formelhaften Aufsätze von früher waren, dass die Schüler gar keine Lust mehr haben würden, sie nicht zu machen. Beispiele solcher Aufgaben:
Stell dir vor, du arbeitest in Hollywood: Das Buch, das wir gerade gelesen haben, wird verfilmt, und du musst den Soundtrack zusammenstellen. Erkläre, welche Lieder zu welchen Szenen passen und warum. Zeige dabei, dass du die Stimmung dieser Szenen und ihre Rolle in der Gesamtgeschichte verstanden hast.
Verfasse deine eigene Version von Binyavanga Wainainas satirischem Essay How to Write About Africa, deutsch: Anleitung zum Schreiben über Afrika. Ersetze „Afrika“ dabei durch etwas, das dir wichtig ist und deiner Meinung nach oft falsch dargestellt wird. Zeige dabei, dass du verstanden hast, wie er rhetorische Mittel einsetzt.
Direkt über KI sprechen
Ich liebte es, die Ergebnisse dieser Aufgaben zu lesen. Ich fand es toll, zu erfahren, wie die Schüler das Gelesene verstanden hatten. Ich fand es auch toll, ihre Musik zu hören. Und mehr über ihre Einstellung zu Geschlechterrollen, ihren kulturellen Hintergrund und ihre Wohnviertel zu erfahren und mir Notizen zu meinen Reaktionen auf ihre Texte zu machen. Doch diese Begeisterung hielt mich nicht davon ab, mir Sorgen zu machen.
Bei jeder Aufgabe erwischte ich ein paar Schüler beim Schummeln. Als ich sie darauf ansprach, gaben die Täter es meist sofort zu und führten Zeitdruck und Unverständnis für die Aufgabenstellung als Gründe an. Ich bat sie eindringlich: Wenn ihr etwas nicht versteht, sagt mir einfach Bescheid!
Und wer weiß – vielleicht hätten Chatbots helfen können. Ich bin mir sicher, dass sie das in einigen Fällen auch getan haben. Bei jeder Aufgabe erwischte ich ein paar Schüler beim Schummeln. Als ich sie darauf ansprach, gaben die Täter es meist sofort zu und führten Zeitdruck und Unverständnis für die Aufgabenstellung als Gründe an. Ich bat sie eindringlich: Wenn ihr etwas nicht versteht, sagt mir einfach Bescheid!
Aber ich musste unweigerlich daran denken: Was wäre, wenn ich einen Chatbot darauf trainiert hätte, ihre Fragen so zu beantworten, wie ich es für richtig hielt? Hätten dann vielleicht weniger von ihnen das Schlimmste getan? (Wusste ich überhaupt, wie viele es tatsächlich getan hatten?) Wären ihre Texte vielleicht besser und schneller geworden?
Oder wären mehr von ihnen, die am Anfang des Weges zum regelrechten Betrug standen, fröhlich diesen Weg gegangen? Ich wollte ihnen vertrauen; ich war mir sicher, dass ich Grenzen setzen musste. Richtige Entscheidungen zu treffen, schien unmöglich, und es war nur ein schwacher Trost, dass ein österreichischer Psychoanalytiker mit einer Vorliebe für Kokain das bereits 1937 gesagt hatte.
Neben dem Lesen gab es noch eine weitere Unterrichtsaktivität, die mir relativ sicher vor dieser schwebenden Wolke der Zweifel erschien. Das waren die Momente, in denen wir direkt über KI sprachen – wenn ich versuchte, meine Gedanken zu diesem Thema (einschließlich meiner Unsicherheit) zu erklären und auch die Meinung der Klasse einzuholen. Ich verteilte an meine älteren Schüler Fragebögen zum Thema KI und forderte sie auf, zu beschreiben, welche KI-Tools sie wofür nutzten, wie lange sie diese bereits nutzten und wie sie dazu standen.
Einige von ihnen sagten mir, sie hätten KI noch nie genutzt und wollten es auch nie tun – es mache ihnen Angst. Einige äußerten Bedenken darüber, was das für Arbeitsplätze bedeute. Andere beschrieben, dass sie Chatbots nutzten, um Lernkarteikarten und Prüfungsfragen zu erstellen, um Mode-Ratschläge zu erhalten, um ihre Social-Media-Beiträge zu bearbeiten, als Ersatz für Google-Suchen, um Tipps rund ums Kochen, Sport oder Gesundheit und um Gesundheitstipps für ihre Haustiere zu erhalten.
Anpassen zwecks Originalität
Fast alle, die den Fragebogen ausfüllten, äußerten gewisse Befürchtungen (oder zumindest das Bewusstsein), dass KI ihre Fähigkeit zum eigenständigen Denken untergraben könnte. Mir ist klar, dass einige Schüler, die meine ablehnende Haltung intuitiv erkannt hatten, vielleicht das angaben, was sie dachten, dass ich hören wollte.
Ich wusste auch, dass einige von ihnen wahrscheinlich Dinge ausließen, die sie mir verständlicherweise nicht sagen wollten, wie zum Beispiel, dass sie Chatbots nutzten, um ihre Einsamkeit zu lindern. Dennoch wirkten ihre Bedenken hinsichtlich ihrer eigenen kognitiven Fähigkeiten aufrichtig.
Es war dabei aber nicht immer klar, ob die Schüler das Wesen des eigenständigen Denkens gut genug verstanden, um zu erkennen, wann es umgangen wurde. Mehr als einer bekundete die feste Entschlossenheit, seine eigenen Denkfähigkeiten zu entwickeln.
Aber dann nannten die gleichen Schüler wenige Zeilen später Beispiele für einen „verantwortungsvollen“ Einsatz von KI, die aus meiner Sicht genau das zunichte machten, was sie eigentlich fördern wollten: „Ich lasse mir von der KI eine These vorschlagen, schreibe die Arbeit dann aber selbst. Ich lasse mir von der KI mehrere Thesen vorschlagen, wähle eine davon aus und lasse die KI die Gliederung erstellen. Ich lasse die KI einen ersten Entwurf schreiben und passe ihn dann an, damit er originell wird.“
Das Hintergrundwissen über die KI war bei den Schülerinnen gering
Nur ein Schüler gab an, dass er KI einsetzte, um ungeliebte Schreibaufgaben von Anfang bis Ende zu erledigen. Es sei nichts gegen mich persönlich, erklärte er, aber er habe viel zu tun, und „manche Lehrer“ hätten die Angewohnheit, immer wieder dieselben Aufgaben zu stellen, und er sei überzeugt davon, dass sie seine Zeit nicht wert seien.
Der Vater eben dieses Schülers sprach mich bei einem Elternabend an. Er verstehe zwar, woher meine KI-Richtlinien kämen, aber sei dennoch besorgt. Aus Erfahrung im eigenen Berufsleben wisse er, wie sehr Arbeitgeber bei Einstellungs- und Beförderungsgesprächen Wert auf KI-Kompetenz legten. Sollte die schulische Bildung seines Sohnes daher diese Kompetenz nicht fördern?
Ich hatte den deutlichen Eindruck, dass selbst unter den Schülerinnen, die KI am häufigsten nutzten, das Hintergrundwissen über diese Technologie äußerst gering war. Eines Tages bot ich spontan eine viel zu hohe Anzahl an Bonuspunkten für jeden an, der (ohne auf einen Bildschirm zu schauen) in verständlicher Sprache erklären konnte, wie Chatbots Text generieren. Kein Einziger konnte das.
Außerdem leitete ich eine E-Mail weiter, die ich von meinem Autoren-Berufsverband The Authors Guild erhalten hatte. Darin wurde erklärt, wie ich herausfinden kann, ob ich Anspruch auf Entschädigung aus einer Sammelklage habe, die im Namen von Buchautoren gegen das KI-Unternehmen Anthropic eingereicht wurde – den Entwickler von Claude, einem Chatbot, den einige von ihnen als ihren Favoriten bezeichnet hatten. Aus welchem Grund, fragte ich, könnte Anthropic Autoren wie mir Geld schulden? Schweigen.
Also versuchte ich, darüber zu sprechen. Es fühlte sich ein wenig unbeholfen an. Als ich meine eigene, in einfacher Sprache verfasste Erklärung zur Herkunft von Chatbot-Texten vortrug, wurde mir schnell klar, dass sie nicht so einfach war, wie ich gehofft hatte. Aber es fühlte sich auch gut an. Ich spürte, wie die Aufmerksamkeit meiner Schüler – und, offen gestanden, auch meine eigene – immer mehr zunahm, als wir uns mit Fragen über die Welt und unseren Platz darin beschäftigten.
Es gilt weiterhin höchste Vorsicht
Ich werde in Zukunft vermutlich nach weiteren Möglichkeiten suchen, das Thema KI in den Unterricht einzubringen, auch wenn ich beim Einsatz von KI-Tools höchste Vorsicht walten lasse. Ich möchte, dass die Schüler lernen, sich besser mit Literatur auseinanderzusetzen – ja, aber auch mit allen sprachlichen Äußerungen, denen sie begegnen, etwa in der Werbung, in Reden von Politikern, in Zeitungskommentaren und in Beiträgen in den sozialen Medien.
Wenn diese Sprachmaschinen eine wichtige Rolle dabei spielen sollen, wie sie mit der Welt interagieren, möchte ich, dass sie in der Lage sind, Fragen zu dieser Technik zu stellen. Ich möchte, dass sie in der Lage sind, die Geschäftsmodelle von KI-Unternehmen zu erklären, zu erläutern, wie sich diese Geschäftsmodelle auf das Verhalten von Chatbots auswirken können, und darzulegen, welche Rolle Niedriglohnarbeiter bei der Erstellung von Antworten durch Chatbots spielen.
Ich möchte, dass die Studierenden von den Erfahrungen der Menschen erfahren, bei denen Interaktionen mit Chatbots zu Selbstverletzung, Psychosen und Selbstmord führen, und dass sie sich dazu äußern. Ich möchte, dass sie wissen, dass mehrere Führungskräfte aus der KI-Branche offen vorausgesagt haben, dass das Wachstum der KI letztendlich dazu führen wird, dass die Oberfläche unseres Planeten größtenteils von Rechenzentren bedeckt sein wird, und ich möchte hören, was sie darüber denken.
An meinem letzten Tag als Referendar blieb ich länger da, um einen Stapel Texte meiner jüngeren Schüler zu benoten. Wir hatten mehrere Wochen damit verbracht, Kurzgeschichten über die komplizierten Beziehungen zu lesen, die wir Menschen zu unseren Lehrern, Mentoren und Vorbildern haben. Anstelle von Aufsätzen hatte ich sie gebeten, Kurzgeschichten zu schreiben. Sie sollten Figuren aus der Unterrichtseinheit auswählen und originelle Szenarien entwickeln, die diese Figuren zusammenbrachten, sodass sie die Themen des Unterrichtsmaterials widerspiegelten.
Satans Onkel
Ich hatte den Schülern erlaubt, außerhalb des Unterrichts an den Geschichten zu arbeiten und sie digital einzureichen. Aber ich ließ sie auch während der Unterrichtszeit daran arbeiten und sie mussten mir mündlich ihre Entscheidungen erläutern. Soweit ich es beurteilen konnte, hatten nur ein oder zwei die Aufgabe offensichtlich an Chatbots abgegeben (die, falls Sie sich das fragen, ihre Sache ganz passabel gemacht haben).
Insgesamt war ich begeistert von der Kreativität und der Qualität der Geschichten meiner Schüler sowie von dem tiefen Verständnis, das sie für die Werke anderer Autoren bewiesen. Zu meiner Überraschung griffen viele von ihnen auf eine Geschichte zurück, die im Unterricht allgemein als „zu seltsam“ abgetan worden war
Insgesamt war ich begeistert von der Kreativität und der Qualität der Geschichten meiner Schüler sowie von dem tiefen Verständnis, das sie für die Werke anderer Autoren bewiesen. Zu meiner Überraschung griffen viele von ihnen auf eine Geschichte zurück, die im Unterricht allgemein als „zu seltsam“ abgetan worden war: Mark Twains The Mysterious Stranger, deutsch: Der geheimnisvolle Fremde. In der Fassung, die wir gelesen haben (Twain hat sie mindestens dreimal umgeschrieben), gerät eine Gruppe junger Männer unter den Einfluss eines Engels namens Satan – nicht jener Satan, versichert er ihnen; das sei sein Onkel.
Dieser Satan, wer auch immer er sein mag, beherrscht alle möglichen coolen Zaubertricks, was die Jungs zunächst total toll finden. Letztlich ist es aber eine Horrorgeschichte. Es zeigt sich, dass Satan trotz all seines äußerlichen Charmes die Menschheit mit einer Mischung aus Gleichgültigkeit, Verachtung und Feindseligkeit betrachtet. Je mehr die jungen Männer mit ihm zu tun haben, desto größer ist die Gefahr, dass sie unbewusst eine ähnliche Haltung annehmen.
Mehrere Schüler ließen sich ihre „Satans“ auf eine Weise verhalten, die – das war unmöglich zu übersehen – dem Verhalten der neuesten Chatbots ähnelt. Satan bot an, die Hausaufgaben der Figuren zu erledigen, ihre Arbeiten zu überarbeiten und zu verfeinern, um ihnen Zeit für Dinge zu verschaffen, die unmittelbar Vergnügen bereiten. Das taten die Schüler, ich schwöre es, ganz ohne mein Zutun. Trotz meiner tendenziellen KI-Ablehnung war mir diese Sichtweise auf Twains Satan nie in den Sinn gekommen.
Geht es hier überhaupt noch um Betrug und Nicht-Betrug?
Die Stunden, die ich mit dem Lesen dieser Geschichten verbrachte, waren eine wahre Freude und weitgehend frei von den Ängsten vor der KI, die meine Gedanken während eines Großteils des Halbjahrs beherrscht hatten. Die größte Bedrohung für diese Freude war der stetige Strom von Angeboten seitens der KI-Tools, die in meiner Textverarbeitungssoftware, in meinem E-Mail-Posteingang sowie in meinem digitalen Aufgabenmanagement-Tool integriert sind. Wollte ich, dass die Maschine mir Anmerkungen zu den Geschichten meiner Studierenden generierte? Dass sie die Texte für mich benotete? Dass sie sie anhand von Ähnlichkeiten, die sie zwischen ihnen erkannte, in Kategorien einteilte?
Nein, das wollte ich nicht. Ich wollte lesen, was meine Schüler geschrieben hatten. Ich hatte ihnen das ganze Semester über erzählt, dass Schreiben ein Geschenk sei, das die Menschheit für sich selbst entwickelt hatte, ein Weg, uns selbst und uns gegenseitig über Raum und Zeit kennenzulernen. Was würde es bedeuten, wenn ich nach alledem die Aufgabe, auf ihr Schreiben zu reagieren, einem Algorithmus überließe? Ich druckte die verbleibenden Geschichten aus und schloss meinen Computer.
Habe ich wirklich jeden einzelnen Fall von Betrug durch KI aufgedeckt? Ziemlich sicher nicht. Und einige Lehrer da draußen – sowohl Skeptiker als auch Befürworter – werden gerade den Kopf über meine Naivität schütteln. Aber ich kannte meine Schüler; das war doch meine Aufgabe, oder? Ich hatte den Fortschritt ihrer Entwürfe im Unterricht beobachtet; ich hatte sie dazu gebracht, mir ihre Geschichten – ihre seltsamen, urkomischen, berührenden Geschichten – persönlich zu erklären. Das alles zählte doch sicherlich etwas.
Mir war bewusst, dass ich mir vielleicht etwas vormachte. Aber ich fühlte mich überraschend gelassen. Ich hatte getan, was ich für dieses Semester für richtig hielt. In zukünftigen Semestern wird sich der Ansatz sicher auf eine Weise ändern, die ich bisher nicht vorhersagen kann. Auch das gehört zum Job. Ich nahm meinen Stift, griff nach der nächsten Geschichte auf dem Stapel und begann zu lesen.