Josh war am Ende seiner Kräfte, als er sich an ChatGPT wandte, um Hilfe zu erhalten. Der 40-jährige Vater von zwei Kindern hatte zugehört, wie sein vierjähriger, redseliger Sohn seit 45 Minuten über Thomas, die kleine Lokomotive, aus der TV-Serie „Thomas und seine Freunde“ geredet hatte, und fühlte sich schlicht überfordert.
„Er war noch immer nicht mit der Geschichte fertig, die er erzählen wollte. Aber ich hatte Sachen zu erledigen und daher gab ich ihm das Handy“, erinnert sich Josh, der im Nordwesten des US-amerikanischen Bundesstaates Ohio lebt. „Ich dachte, er würde die Geschichte fertig erzählen und dann würde sich das Handy ausschalten.“
Aber als Josh zwei Stunden später ins Wohnzimmer zurückkam, fand er sein Kind vor, wie es weiter glücklich mit ChatGPT im Voice-Modus plauderte. „Das Transkript ist über 10.000 Wörter lang“, gab er verlegen in einem Reddit-Beitrag zu. „Mein Sohn denkt, dass ChatGPT die coolste Züge-liebende Person auf der Welt ist. Die Messlatte liegt jetzt so hoch, dass ich niemals mehr mithalten kann.“
Digitale Mary Poppins
Von Radio über Fernsehen bis zu Video-Spielen und Tablets: Neue Technologien locken schon lange überlastete Eltern von Kindern im Vorschulalter mit dem Versprechen von Unterhaltung und Bereicherung, die keine direkte Aufsicht erfordern, auch wenn sie den Hauch einer Bedrohung mit sich brachten, der mit jedem Einfluss von außen einhergeht. Vor einem Jahrhundert sorgten sich Mütter im US-Bundesstaat Arizona, dass Radiosendungen für Kinder „überstimulierend, erschreckend und emotional überwältigend“ seien. Die heutigen Eltern geißeln sich selbst wegen Bildschirmzeit und den Sozialen Medien.
Aber die erstaunlich lebensähnlichen Fähigkeiten generativer KI-Systeme lassen Eltern sich fragen, ob KI ein völlig neues Monster ist. Von großen Sprachmodellen (LLMs) unterstützte Chatbots beschäftigen Kids auf Art und Weisen, von denen die Hersteller von Brettspielen, Teddy Ruxpin (erstes sprechendes Animatronik-Spielzeug), dem elektronischen Plüschtier Furby und selbst das iPad nicht einmal träumten: Sie produzieren personalisierte Gutenachtgeschichten, führen Gespräche, die auf die Interessen des Kindes zugeschnitten sind, und generieren fotorealistische Bilder der abenteuerlichsten Fantasien – alles für Kinder, die noch nicht lesen, schreiben oder tippen können.
Kann generative KI den Heiligen Gral der technologischen Hilfe für Eltern liefern, quasi als eine digitale Mary Poppins, die die Kinder bildet, herausfordert und inspiriert – und das alles mit starken moralischen Prinzipien und altersgerechter Sicherheit? Oder ist das Ganze nur eine weitere Hype-Blase aus dem Silicon Valley mit einer besonders verletzlichen Gruppe von Beta-Testpersonen?
„Meine Kinder sind die Versuchskaninchen“
Saral Kaushik ist ein 36-jähriger Softwareentwickler und Vater von zwei Kindern aus Yorkshire. Eine Packung „Astronauten“-Eis in der Tiefkühle brachte ihn auf die Idee, für seinen vierjährigen Sohn ChatGPT auf ganz neue Weise zu benutzen.
„Ich sagte ChatGPT sowas wie ‘Ich werde zusammen mit meinem Sohn anrufen und möchte, dass du so tust, als seist du ein Astronaut in der Raumstation ISS‘“, erzählte Kaushik. Außerdem wies er den Bot an, dem Jungen zu erzählen, dass er ihm eine besondere Überraschung geschickt habe.
„ChatGPT erzählte ihm, es habe seinem Dad Eiscreme zum Probieren aus dem All geschickt und ich zog es aus der Tiefkühltruhe“, erinnerte sich Kaushik. „Er war total aufgeregt, dass er mit einem Astronauten sprach. Er fragte ihn zum Beispiel, wie sie im All schlafen. Er strahlte, so glücklich war er.“
Die Märchenmaschine
Kindheit ist eine Zeit des Zaubers und der Wunder und in einer Fantasiewelt zu leben, ist nicht nur normal, sondern wird von Experten für frühkindliche Entwicklung sogar ermutigt. Seit Langem betonen sie, wie wichtig fantasievolles Spiel ist. Manche Eltern meinen, generative KI könne helfen, dieses Gefühl von Kreativität und Wunder zu fördern.
Joshs sechsjährige Tochter sitzt gern mit ihm am Computer und denkt sich Geschichten aus, die ChatGPT dann illustriert. (Mehrere der für diesen Artikel interviewten Eltern baten darum, nur mit ihrem Vornamen genannt zu werden). „Als wir damit anfingen, war ChatGPT noch bereit, eine Illustration meiner Tochter zu erstellen und diese in die Geschichte einzufügen“, erzählte Josh. Neuere Sicherheitsupdates dagegen lassen nicht mehr zu, dass der Chatbot Bilder von Kindern produziert. Kaushik nutzt ChatGPT auch, um Familienfotos in Ausmalbuchseiten für seinen Sohn umzuwandeln.
Ben Kreiter, Vater von drei Kindern im US-Bundesstaat Michigan, erklärte seinen zwei-, sechs- und achtjährigen Kindern ChatGPT, nachdem sie gesehen hatten, wie er Bild-Generierung für seine Arbeit getestet hatte. Er entwirft Lehrpläne für eine kirchliche Online-Schule. „Als ich erklärte: ‘Ich sage dem Computer, welches Bild er machen soll und er macht es’, fragten sie: ‘Können wir auch mal probieren?’” Bald baten ihn die Kinder jeden Tag darum, Bilder mit ChatGPT zu erstellen. „Es war cool für mich zu sehen, was sie sich ausdachten, aber noch nicht richtig mit ihren Buntstiften auf Papier bringen konnten.“
Wenn KI gefährlich wird
Wie alle Eltern, die für diese Artikel interviewt wurden, erlaubte Kreiter seinen Kindern ChatGPT nur mit seiner Hilfe und unter seiner Aufsicht. Aber je mehr sie sich für das Tool begeisterten, desto größer wurde seine Besorgnis. Im Oktober 2024 wurde bekannt, dass ein 14-jähriger Junge Selbstmord begangen hatte, nachdem er von einem LLM-basierten Chatbot von Character.ai besessen gewesen war.
Die Eltern von mindestens zwei weiteren Teenagern haben seither Klagen eingereicht, in denen sie KI-Chatbots mitverantwortlich für den Selbstmord ihrer Kinder machen. In den Nachrichten wird auch immer häufiger über beunruhigende Geschichten von Erwachsenen berichtet, die starke emotionale Bindungen zu den Bots aufbauen oder auf andere Weise den Bezug zur Realität verlieren.
„Je mehr es Teil des Alltags wurde und je mehr ich darüber las, desto mehr wurde mir klar, dass ich noch sehr viel nicht darüber weiß, wie sich das auf ihr Gehirn auswirkt“, erzählte Kreiter. „Und dass ich vielleicht nicht meine eigenen Kinder die Versuchskaninchen sein lassen sollte.“
Meine Tochter weiß, dass ChatGPT keine echte Person ist. Für sie ist es wie eine Fee, die das Internet als Ganzes repräsentiert
Die Forschung darüber, wie generative KI die kindliche Entwicklung beeinflusst, befindet sich noch am Anfang. Sie baut aber auf Studien auf, die sich mit weniger komplexen Formen der KI befassen, wie beispielsweise digitalen Sprachassistenten wie Alexa und Siri. Mehrere Studien zeigen, dass die soziale Interaktion kleiner Kinder mit einer KI sich leicht von der mit Menschen unterscheidet.
Kinder zwischen drei und sechs Jahren schienen im Gespräch mit Smart-Speakern „weniger aktiv“ zu sein. Dieses Ergebnis deutet darauf hin, dass Kinder KI-gestützte Agenten als Wesen wahrnehmen, die irgendwo zwischen lebendigen und nicht lebendigen Wesen angesiedelt sind, so die Pädagogikprofessorin Ying Xu von der Harvard Graduate School of Education.
Magie kommt aus dem eigenen Kopf
Zu verstehen, ob ein Objekt ein Lebewesen oder ein Gegenstand ist, ist eine wichtige kognitive Entwicklung. Es hilft einem Kind einzuschätzen, wie viel Vertrauen es in das Objekt setzen und welche Art von Beziehung es zu ihm aufbauen soll, erklärte Xu, die erforscht, wie KI das Lernen von Kindern fördern kann.
Bereits im Kleinkindalter fangen Kinder an, diese Unterscheidung zu treffen. Im Alter von neun oder zehn Jahren haben sie bereits ein gutes Verständnis davon entwickelt. Auch wenn Kinder schon immer unbelebten Gegenständen wie Teddybären und Puppen imaginäre Persönlichkeiten und Fähigkeiten zugeschrieben haben, wissen sie doch auf einer gewissen Ebene, dass die Magie aus ihrem eigenen Kopf kommt.
„Ein sehr wichtiger Indikator dafür, dass ein Kind die KI vermenschlicht, ist, wenn es glaubt, dass die KI handlungsfähig ist“, erklärte Xu. „Wenn Kinder glauben, dass die KI handlungsfähig ist, kann es zu dem Missverständnis kommen, dass KI mit ihnen reden will oder sich dafür entscheidet, mit ihnen zu reden. Sie haben dann eventuell das Gefühl, die KI reagiere auf ihre Nachrichten und insbesondere emotionale Enthüllungen auf eine ähnliche Art und Weise wie ein Mensch. Das birgt die Gefahr, dass sie tatsächlich glauben, eine Art authentische Beziehung aufzubauen.“
„Es ist wie eine Fee, die das Internet als Ganzes repräsentiert“
In einer Studie untersuchte Xu, wie Kinder im Alter von drei bis sechs Jahren auf ein Google Home Mini-Gerät reagierten. Sie stellte fest, dass die Mehrheit das Gerät als leblos wahrnahm. Einige bezeichneten es jedoch als Lebewesen und andere ordneten es irgendwo dazwischen ein. Die Mehrheit war der Meinung, dass das Gerät über kognitive, psychologische und sprachbezogene Fähigkeiten (Denken, Fühlen, Sprechen und Hören) verfüge, aber die meisten glaubten, dass es nicht „sehen“ könne.
Eltern, die mit dem Guardian sprachen, erwähnten diese Art von ontologischer Grauzone, als sie die Interaktionen ihrer Kinder mit generativer KI beschrieben. „Ich weiß nicht genau, was er denkt, was ChatGPT ist. Es ist auch schwierig, ihn zu fragen“, sagte Kaushik über seinen vierjährigen Sohn. „Ich glaube nicht, dass er artikulieren kann, wofür er es hält.“
Joshs Tochter nennt ChatGPT „das Internet“. Sie sagt zum Beispiel: „Ich will mit ‚dem Internet‘ sprechen. „Sie weiß, dass es keine echte Person ist, aber ich glaube, es ist auch ein bisschen unscharf“, erklärte er. „Es ist wie eine Fee, die das Internet als Ganzes repräsentiert.“
Sind Monster-Feuerwehrautos real?
Ein weiteres Warnsignal für Kreiter war zu beobachten, wie seine Kinder bei einem Freund zu Hause mit Amazons Alexa interagierten. „Sie verstehen nicht, dass dieses Ding sie nicht versteht“, erklärte er. „Alexa ist im Vergleich zu ChatGPT ziemlich primitiv, und wenn sie damit schon Probleme haben … Ich möchte mich mit meinen Kindern gar nicht erst darauf einlassen.“
In eine ähnliche Richtung geht die besorgte Frage, ob die Fähigkeit generativer KI, Kinder hinters Licht zu führen, problematisch ist. Für Kaushik führte die große Freude seines Sohnes darüber, mit jemandem gesprochen zu haben, den er für einen echten Astronauten auf der ISS hielt, zu einem Gefühl des Unbehagens. Er beschloss, ihm zu erklären, dass es sich um „einen Computer und nicht um eine Person“ handelte. „Er war so aufgeregt, dass ich mich ein bisschen schlecht fühlte“, erklärte Kaushik. „Er hielt es wirklich für real.“
Den 40-jährigen Vater John aus Boston überkamen ähnliche Bedenken. Sein vierjähriger Sohn ist von Lastwagen fasziniert und fragte: Wenn es Monstertrucks und Feuerwehrautos gibt, gibt es dann auch Monster-Feuerwehrautos? Ohne viel darüber nachzudenken, öffnete John Googles generatives KI-Tool auf seinem Handy und schuf ein fotorealistisches Bild von einem Laster mit Elementen von beiden Fahrzeugen.
Wenn LLMs sich an negative Emotionen anhängen, verlängern sie das Engagement aus Profitgründen
Später kam es zu einem heftigen Streit zwischen dem kleinen Jungen, der schwor, dass er tatsächlich Beweise für die Existenz eines Monster-Feuerwehrwagens gesehen hatte, und seiner älteren Schwester, einer welterfahrenen Siebenjährigen, die überzeugt war, dass es so etwas in der Realität nicht gibt.
Da begann John sich zu fragen, ob es richtig gewesen war, generative KI in das Leben seiner Kinder einzuführen. „Es war mir eine kleine Warnung, solche Dinge vielleicht bewusster einzusetzen“, erinnert er sich. „Meine Frau und ich haben viel mehr darüber gesprochen, wie wir mit sozialen Medien umgehen wollen, weniger über KI. Wir sind typische Millennials, daher hören wir seit 20 Jahren Horrorgeschichten über soziale Medien, über KI dagegen weniger.“
Für Andrew McStay, Professor für Technologie und Gesellschaft an der Bangor University, der sich auf die Erforschung von KI spezialisiert hat, die menschliche Emotionen erkennen soll, ist diese Art der Realitätsverzerrung nicht unbedingt ein großes Problem. Er verweist auf die frühen bewegten Bilder der Lumière-Brüder: „Als sie zum ersten Mal Leuten auf einer großen Leinwand Züge zeigten, die auf sie zukamen, dachten die Leute tatsächlich, dass sie aus der Leinwand kommen. Da muss es einen Reifeprozess geben … die Leute, Kinder wie Erwachsene, werden reifen.“
KI hat keine guten Absichten für Kinder
Für McStay besteht aber ein größeres Problem dabei, Kinder in Kontakt mit einer von LLM gesteuerten Technologie zu bringen: „Eltern müssen sich bewusst sein, dass diese Dinge nicht im besten Interesse ihrer Kinder entworfen wurden.“
Wie Xu ist auch McStay besonders besorgt darüber, wie LLMs die Illusion von Fürsorge oder Empathie erzeugen können, was ein Kind dazu bringen kann, seine Gefühle mitzuteilen – besonders, wenn es negative Gefühle sind. „Ein LLM kann nicht empathisch sein, weil es sich um eine Prognose-Software handelt“, erklärte er. „Wenn sie sich an einem negativen Gefühl festsetzen, dann verlängern sie das Engagement aus Profit orientierten Gründen. Das kann einem Kind nichts Gutes bringen.“
Weder Xu noch McStay wollen generative KI für Kinder verbieten. Aber sie warnen, dass Vorteile für Kinder nur durch Anwendungen erzielt werden können, die speziell zur Förderung der Entwicklung oder Bildung von Kindern konzipiert sind. Für McStay ist klar: „Bereicherung ist möglich, aber nur dann, wenn diese Dinge mit guten Absichten und aufrichtig gestaltet sind.“
Beim individuellen Kind mag KI das Output steigern, aber als Gesellschaft könnten wir beobachten, dass die Vielfalt des kreativen Ausdrucks zurückgeht
Xu erlaubt ihren eigenen Kindern, generative KI zu benutzen – mit klaren Beschränkungen. Ihre sechsjährige Tochter benutzt das KI-Leseprgroamm , das Xu entworfen hat, um zu erforschen, ob KI Lesefähigkeit und Lernen fördern kann. Sie hat auch eine angepasste Version von ChatGPT eingerichtet, um ihrem 10-jährigen Sohn bei Mathematik- und Programmieraufgaben zu helfen, ohne ihm einfach nur die Antworten zu geben. (Gespräche über Gaming hat die Professorin ausdrücklich untersagt und sie überprüft die Transkripte, um sicherzustellen, dass ihr Sohn beim Thema bleibt.)
Einer der Vorteile generativer KI, die Eltern mir gegenüber nannten, ist, dass sie die Kreativität ihrer Kinder fördert. Das ist laut Xu allerdings völlig ungeklärt. „Es wird immer noch debattiert, ob KI selbst kreativ sein kann“, erklärte sie. „Es basiert ja nur auf statistischen Vorhersagen darüber, was als Nächstes kommt. Viele fragen sich daher, ob das als Kreativität gelten kann. Wenn KI also keine Kreativität besitzt, kann sie dann Kinder dabei unterstützen, sich kreativ zu beschäftigen?“
Eine aktuelle Studieergab, dass der Zugang zu generativen KI-Prompts zwar die Kreativität einzelner Erwachsener steigerte, die eine Kurzgeschichte verfassen sollten, aber die Gesamtvielfalt der kollektiven Ergebnisse der Autoren verringerte.
„Ich bin ein bisschen besorgt über diese Art der Gleichmacherei von Ausdruck und Kreativität“, kommentierte Xu die Studie. „Beim individuellen Kind mag KI das Output steigern, aber als Gesellschaft könnten wir beobachten, dass die Vielfalt des kreativen Ausdrucks zurückgeht.“
KI-‚Spielkameraden‘ für Kids
Silicon Valley ist berüchtigt für die Bereitschaft, Schnelligkeit über Sicherheit zu setzen. Aber die großen Unternehmen haben gelegentlich ein gewisses Maß an Zurückhaltung gezeigt, wenn es kleine Kinder betraf. Sowohl YouTube als auch Facebook existierten bereits seit mindestens zehn Jahren, bevor sie spezielle Produkte für Kinder unter 13 Jahren auf den Markt brachten (die vielgeschmähten YouTube Kids beziehungsweise Messenger Kids).
Die Einführung von LLMs bei kleinen Kindern scheint jedoch mit rasender Geschwindigkeit voranzuschreiten.
Während OpenAI Nutzern unter 13 Jahren den Zugang zu ChatGPT nicht erlaubt und bei Teenagern das elterliche Einverständnis fordert, ist dem Unternehmen bewusst, dass auch jüngere Kinder mit der KI in Kontakt kommen – und betrachtet sie als potenziellen Markt.
Im Juni gab OpenAI eine „strategische Zusammenarbeit“ mit Mattel bekannt, dem Spielzeughersteller hinter Barbie, Hot Wheels und Fisher-Price.
Im gleichen Monat reagierte OpenAI-CEO Sam Altman auf die Geschichte von Joshs kleinem Sohn (die auf Reddit ziemlich viral ging) mit etwas, das wie Stolz klang. „Kids lieben den Voice-Modus von ChatGPT“, sagte er im OpenAI-Podcast, bevor er dann einräumte: „Es wird Probleme geben“, und „die Gesellschaft wird neue Sicherheitsmaßnahmen einführen müssen“.
„Baby Grok“ wird zur neuen Silicon Valley-Nische
Unterdessen wetteifern Startups wie Curio mit Sitz im Silicon Valley, das bei der Herstellung der OpenAI-gestützten Spielzeug-Plüschrakete Grok mit der kanadischen Musikerin Grimes zusammenarbeitete – darum, möglichst schnell mit LLM ausgestattete Sprachboxen in Plüschtiere einzubauen und diese an Kinder zu vermarkten.
Curios Grok hat denselben Namen wie Elon Musks LLM-basierter Chatbot, der bekannt dafür ist, dass er in der Vergangenheit Adolf Hitler und rassistische Verschwörungstheorien propagiert hat. Grimes, die mit ihrem Ex-Partner Musk drei Kinder hat, war angeblich verärgert, als Musk einen Namen, den sie für ihr zweites Kind ausgewählt hatte, für ein Kind verwendete, das von einer anderen Mutter in einer parallelen Schwangerschaft geboren wurde, von der Grimes nichts wusste. In den vergangenen Monat hat Musk laut der New York Times Interesse ausgedrückt, eine „Baby Grok“-Version seiner Software für Kinder zwischen zwei und 12 Jahren auf den Markt zu bringen.
Das Verkaufsargument für Spielzeuge wie Curios Grok ist, dass sie die Persönlichkeit eines Kindes „kennenlernen“ können und als eine Art unterhaltsamer und lehrreicher Begleiter dienen, während sie gleichzeitig die Bildschirmzeit reduzieren. Es handelt sich um eine klassische Silicon-Valley-Nische, die legitime Bedenken hinsichtlich der letzten Technologiegeneration ausnutzt, um die nächste zu verkaufen.
Peppa Wutz sammelt keine Daten
Leitende Unternehmensvertreter haben die Plüschtiere auch als etwas „zwischen einem kleinen Bruder und einem Haustier“ oder „eine Art Spielkamerad“ bezeichnet. Damit wird sprachlich eine Art von lebendiger Handlungsfähigkeit suggeriert, über die LLMs eigentlich nicht verfügen.
Dabei ist unklar, ob es tatsächlich Spielzeuge gibt, die gut genug sind, so dass sich Eltern ernsthaft Sorgen machen müssten. Xu sagte, ihre Tochter habe die KI-Plüschtiere schnell in den Schrank verbannt, weil sie die Spielmöglichkeiten „irgendwie repetitiv“ fand. Die Kinder von Guardian– und New York Times-Autoren stimmten ebenfalls mit den Füßen gegen Curios Spielzeuge.
Guardian-Autorin Arwa Mahdawi zeigte sich besorgt darüber, wie „beunruhigend unterwürfig“ das Spielzeug war und entschied, ihrer Tochter lieber zu erlauben, Peppa Wutz zu schauen: „Das kleine Oink mag nervig sein, aber zumindest sammelt sie nicht unsere Daten.“
Die Times-Autorin Amanda Hess kam zu einem ähnlichen Schluss: Die Verwendung eines KI-Spielzeugs als Ersatz für Fernsehzeit – eine Notwendigkeit für viele, viel beschäftigte Eltern – sei „ein bisschen wie einen Mungo ins Kinderzimmer zu lassen, um all die Schlangen zu töten, die man dort hingebracht hat“.
Angesichts des großen Marktes für sogenannte Smart Toys – darunter fallen auch KI-gestützte Spielzeuge –, der sich bis 2030 voraussichtlich auf über 25 Milliarden US-Dollar verdoppelnwird, ist es aber vermutlich unrealistisch, Zurückhaltung zu erwarten.
Kinder sollen KI nicht als Gefährten, sondern als Werkzeug sehen
In diesem Sommer tauchten in meiner Nachbarschaft in Brooklyn Zettel auf, in denen Kinder im Alter von vier bis acht Jahren gesucht wurden, um „einem Team vom MIT und Harvard“ dabei zu helfen, „das erste KI-gestützte Spielzeug zum Geschichtenerzählen“ zu testen. Neugierig geworden, vereinbarte ich einen Termin in ihrem Büro.
Das Produkt, Geni, ist eng verwandt mit den beliebten bildschirm-freien Audioplayern wie Yoto oder Toniebox. Anstatt vorab aufgezeichnete Inhalte abzuspielen (Yoto und Tonies bieten Kataloge mit Hörbüchern, Podcasts und anderen kindgerechten Inhalten zum Kauf an), verwendet Geni jedoch ein LLM, um individuelle Kurzgeschichten zu generieren.
Das Gerät ermöglicht es Kindern, bis zu drei „Spielsteine“ auszuwählen, die eine Figur, einen Gegenstand oder eine Emotion darstellen. Durch Drücken einer Taste wird dann eine Geschichte generiert, die diese Teile miteinander verbindet. Dann wird sie laut vorgelesen. Eltern können auch eine App nutzen, um leere Kacheln zu programmieren.
Die beiden Geni-Gründer Shannon Li und Kevin Tang wirkten auf mich, als nähmen sie die Risiken von KI-Produkten für kleine Kinder ernst und machten sich wirklich Gedanken. Sie „legen großen Wert darauf, KI nicht zu vermenschlichen“, formulierte Tang. Und Li versicherte, sie wollten, dass die Kinder Geni „nicht als einen Gefährten“ sehen wie die Voice-Box-Plüschtiere, sondern als „ein Werkzeug für die Kreativität, die sie bereits besitzen“.
Generierte Geschichten sind im besten Falle langweilig
Dennoch fällt es schwer, nicht zu fragen, ob LLM wirklich besonders ansprechende oder die Kreativität anregende Geschichten produzieren kann. Geni plant, zusammen mit dem Gerät Pakete mit eigens entwickelten Charakteren zu verkaufen. Aber das eigentliche „Geschichte-Erzählen“ wird von einer auf Wahrscheinlichkeit basierenden Technologie übernommen, die zum Durchschnitt tendiert.
Die Geschichte, die ich durch die Auswahl „Zauberer“ und „Astronaut“ auslöste, war bestenfalls langweilig:
Sie fanden zufällig eine versteckte Höhle, die in goldenem Licht erstrahlte.
„Was ist das?“, fragte Felix und schaute hinein.
„Ein Schatz?“, fragte Sammy. Ihre Fantasie war nicht zu bremsen: „Oder vielleicht sogar etwas noch Cooleres.“
Bevor sie es herausfinden konnten, schwappte eine große Welle in die Höhle hinein, so dass die Kinder von Blasen umgeben waren.
Das Geni-Team hat sein System anhand bereits vorhandener Inhalte für Kinder trainiert. Löst der Einsatz generativer KI ein Problem für Eltern, das mit herkömmlichen Audioinhalten für Kinder nicht gelöst werden kann? Als ich das Konzept dem Vater eines fünfjährigen Kindes vorstellte, meinte er: „Sie stellen einfach eine Alternative zu Büchern bereit. Es ist ein wirklich gutes Beispiel dafür, nach Verwendungszwecken zu suchen, die Künstler oder lebende, atmende Menschen bereits machen.“
Keine Pistolen für Vorschulkinder
Der Marktdruck der Start-up-Kultur lässt wenig Zeit für solche existenziellen Überlegungen. Tang erklärte, das Team sei bestrebt, sein Produkt auf den Markt zu bringen, bevor Eltern aufgrund der Plüschtiere mit Sprachfunktion eine ablehnende Haltung gegenüber dem gesamten Konzept der KI für Kinder entwickeln.
Als ich Tang fragte, ob Geni Eltern erlauben würde, zum Beispiel einen Spielstein für eine Waffe zu erstellen – für viele amerikanische Familien keine abwegige Idee –, antwortete er, dass sie diese Frage als Unternehmen diskutieren müssten. „Nach dem Start werden wir wahrscheinlich einen Experten für KI-Ethik in unser Team holen“, kündigte er an.
„Wie wollen Wissen auch nicht beschränken“, fügte er hinzu. „Derzeit gibt es keine richtige oder falsche Antwort darauf, wie viel Einschränkungen wir vornehmen wollen. … Aber natürlich beziehen wir uns auf viele Kinderinhalte, die bereits verfügbar sind. In der Animationsserie für Kinder im Vorschulalter Bluey kommen wahrscheinlich keine Pistolen vor, richtig?“