Wrestling mit Malcolm X oder Dating mit Heinrich VIII: Wie viel Deepfake darf KI?
Neulich war ich abends auf einer Dating-App. Ein Typ stach heraus: „Heinrich VIII., 34, König von England, keine Monogamie“. Im nächsten Moment befand ich mich in einer Bar und trank im Kerzenschein einen Martini mit dem größten Serien-Dater des 16. Jahrhunderts.
Aber die Nacht war noch nicht vorbei. Als Nächstes lege ich gemeinsam mit Diana, Prinzessin von Wales, als DJ auf. „Die Leute sind bereit für einen Beat-Drop“, schreit sie in mein Ohr und hält einen Kopfhörer an ihr Diadem. Am Schluss erklärt mir noch Karl Marx, warum er 60 Prozent Rabatt nicht widerstehen kann, während wir in der Kälte darauf warten, beim Black Friday als Erste zuzuschlagen.
Auf Sora 2 gilt: Was man sich vorstellen kann, kann man wahrscheinlich auch sehen – selbst wenn man weiß, dass man es nicht sehen sollte. Die kürzlich in den USA und Kanada gelaunchte Video-App von OpenAI, die nur auf Einladung heruntergeladen werden kann, hat allein in den ersten fünf Tagen eine Million Downloads erzielt und damit das Debüt von ChatGPT übertroffen.
Ein Reiz: Nutzer können sehr einfach in ihren Deepfakes selbst vorkommen
Sora ist nicht das einzige Tool, mit dem man mit Hilfe von KI Text-zu-Video-Inhalte generieren kann. Aber es ist vor allem aus zwei Gründen sehr beliebt geworden. Zum einen ist es bisher die einfachste Möglichkeit für Nutzer, in ihren eigenen Deepfakes selbst vorzukommen. Man muss nur eine Anweisung geben und innerhalb weniger Minuten erscheint ein zehn Sekunden langes Video. Dieses kann dann auf Soras eigenem, TikTok-ähnlichen Feed geteilt oder exportiert werden. Im Gegensatz zur Massenproduktion minderwertigen „KI-Schunds“, sogenannter „Slops“, die das Internet überschwemmen, zeichnen sich diese Clips durch eine beunruhigend hohe Produktionsqualität aus.
Der zweite Grund ist, dass Sora erlaubt, Abbildungen von Prominenten, Sportlern und Politikern zu benutzen – mit einer wichtigen Einschränkung: Sie müssen tot sein. Lebende Personen müssen der Nutzung ihres Bildes zustimmen. „Historische Figuren“ dagegen sind davon ausgenommen. Und das definiert Sora offenbar als jede berühmte Person, die nicht mehr am Leben ist.
Martin Luther King träumt von kostenlosen Slush-Getränken
Und dieses Feature haben auch die meisten Nutzer seit dem Launch genutzt. Der Hauptfeed ist ein surrealer Strudel aus Hirnlosigkeit und historischen Führungspersönlichkeiten. Adolf Hitler fährt sich in einer Shampoo-Werbung mit den Fingern durch eine glänzende Haarmähne. Königin Elizabeth II. stürzt sich fluchend von einem Kneipentisch. Der frühere US-Präsident Abraham Lincoln bricht vor Freude in einem Fernsehstudio in Jubel aus, als er hört: „Sie sind nicht der Vater.“ Martin Luther King erzählt einem Tankstellenangestellten von seinem Traum, dass eines Tages alle Slush-Getränke kostenlos sein werden – dann schnappt er sich das eisgekühlte Getränk und rennt davon, bevor er seinen Satz beendet hat.
Die Angehörigen der Dargestellten finden das nicht lustig. „Es ist zutiefst respektlos und verletzend, zu sehen, wie das Bild meines Vaters auf eine so rücksichtslose und unsensible Art und Weise benutzt wird, während er sein Leben der Wahrheit gewidmet hat“, sagte die Tochter des Bürgerrechtsaktivisten Malcolm X, Ilyasah Shabazz, der Washington Post.Sie war zwei, als ihr Vater ermordet wurde. Heute zeigen Sora-Clips Malcolm X beim Wrestling-Kampf mit Martin Luther King, wie er davon erzählt, dass er sich beim Stuhlgang beschmutzt und derbe Witze reißt. Inzwischen gab OpenAI bekannt, man habe mit der Nachlassverwaltung von Martin Luther King „zusammengearbeitet“ und auf deren Wunsch hin die Generierung von Darstellungen von King vorübergehend ausgesetzt. Das Unternehmen „verstärke die Schutzmaßnahmen für historische Persönlichkeiten“.
Zelda Williams will keine KI-Videos ihres Vaters Robin Williams mehr sehen
Zelda Williams, die Tochter des US-Schauspielers Robin Williams, bat unterdessen die Nutzer auf Instagram darum, ihr bitte keine KI-Videos ihres Vaters mehr zu schicken. „Es ist dumm, es ist Zeit- und Energieverschwendung, und glauben Sie mir, das ist NICHT das, was er wollen würde.“ 2014 hatte der Schauspieler rechtliche Schritte unternommen, um bis 2039 zu verhindern, dass jemand sein Bild in der Werbung verwendet oder ihn digital in Filme einfügt. „Zu sehen, wie das Vermächtnis realer Menschen auf ein schreckliches TikTok-Marionettenspiel reduziert wird, ist unerträglich“, fügte seine Tochter hinzu.
Videos, in denen der verstorbene Komiker George Carlin dargestellt wird, seien „erdrückend und deprimierend“, klagte seine Tochter Kelly Carlin in einem BlueSky-Beitrag. Auch Personen, die erst in jüngerer Zeit verstorben sind, wurden auf Sora entdeckt. Die App ist voll mit Videos von Stephen Hawking, der einen „#Powerslap“ (Ohrfeigen-Schlag ins Gesicht) erhält, der seinen Rollstuhl umwirft. Oder Basketball-Legende Kobe Bryant schlägt auf eine alte Dame ein, während er etwas über Sachen schreit, die in seinem Rektum stecken. Soulsängerin Amy Winehouse stolpert durch die Straßen von Manhattan oder weint in die Kamera, während ihr Mascara das Gesicht hinabläuft.
Verstorbene der vergangenen zwei Jahre – Ozzy Osbourne, Matthew Perry, Liam Payne – fehlen, was auf eine Grenze hindeutet, die irgendwo gezogen wurde.
Soras Algorithmus belohnt Videos mit Schock-Effekt
Wann immer sie auch gestorben sind, berge dieses „Puppenspiel“ mit den Toten die Gefahr, dass die Grenzen der Geschichte neu gezogen werden, warnt der Experte für generative KI Henry Ajder. „Die Leute befürchten, dass eine mit solchen Bildern gesättigte Welt zu einer Verzerrung der Dargestellten führt und wie sie erinnert werden“, erklärt er.
Soras Algorithmus belohnt den Schock-Wert. Ein Video hoch oben in meinem Feed zeigt Martin Luther King, der statt seiner „I have a Dream“-Rede Affenlaute von sich gibt. Andere zeigen Bryant, den Hubschrauberabsturz nachstellend, bei dem er und seine Tochter ums Leben kamen.
Es wird rechtliche Unsicherheit geben, bis der Fall vor dem Supreme Court landet – und das dauert noch zwei bis vier Jahre
Auch Schauspieler oder Zeichentrickfiguren können Menschen posthum darstellen, allerdings gibt es hier strengere gesetzliche Vorschriften. Ein Filmstudio haftet für seine Inhalte; OpenAI dagegen haftet nicht unbedingt für das, was auf Sora zu sehen ist. Auch die Darstellung einer Person für kommerzielle Zwecke erfordert in einigen US-Bundesstaaten die Zustimmung der Erben. „Wir könnten Christopher Lee nicht einfach wieder zum Leben erwecken und in einem neuen Horrorfilm auftreten lassen. Warum kann OpenAI ihn dann in Tausenden von Kurzfilmen vorkommen lassen?“, fragt James Grimmelmann, Experte für Internetrecht.
OpenAIs Entscheidung, die Persönlichkeiten der Verstorbenen der Allgemeinheit zu übergeben, wirft unbequeme Fragen darüber auf, wie die Toten im Zeitalter der generativen KI weiterleben sollten.
Ist das legal? Hängt davon ab, wen man fragt
Die Geister berühmter Persönlichkeiten dazu zu verdammen, Sora für immer heimzusuchen, mag sich falsch anfühlen, aber ist es legal? Das hängt davon ab, wen man fragt.
Eine zentrale Frage im Internetrecht bleibt in den USA weiterhin ungeklärt: Fallen KI-Unternehmen unter Abschnitt 230 des Communications Decency Acts und sind daher nicht für die Inhalte Dritter auf ihren Plattformen haftbar? Wenn OpenAI unter Abschnitt 230 geschützt ist, kann es nicht für die Inhalte verklagt werden, die Nutzer auf Sora erstellen.
„Aber es wird so lange rechtliche Unsicherheit geben, bis der Fall vor dem Supreme Court landet – und das dauert noch zwei bis vier Jahre“, sagt Ashkhen Kazaryan, Experte für den ersten Zusatz der US-Verfassung und Technologiepolitik.
Unterdessen muss OpenAI Gerichtsprozesse vermeiden. Das bedeutet, von den Lebenden Zustimmung zu erhalten. Das US-amerikanische Verleumdungsrecht schützt lebende Personen vor jeder „in physischer Form verkörperten Kommunikation, die dem Ruf einer Person schadet“. Zusätzlich gibt es in den meisten Bundesstaaten Persönlichkeitsrechts-Gesetze, die verhindern, dass die Stimme, die Persönlichkeit oder das Bildnis einer Person ohne deren Zustimmung für „kommerzielle“ oder „irreführende“ Zwecke verwendet werden.
Die Nutzung Toter zuzulassen, „ist ihre Art und Weise, prüfend den Zeh ins Wasser zu halten“, sagt Kazaryan. Verstorbene sind nicht vor Verleumdung geschützt, aber drei Bundesstaaten – New York, Kalifornien und Tennessee – gewähren ein postmortales Persönlichkeitsrecht bei Veröffentlichung (das kommerzielle Recht am eigenen Bild). Die Auslegung dieser Gesetze im Zusammenhang mit KI bleibt laut Grimmelmann eine „Grauzone“, für die es noch keine rechtlichen Präzedenzfälle gibt.
Ermutigt OpenAI die Nutzer dazu, die Toten in ihren Videos zu zeigen?
Um erfolgreich zu klagen, müssten Nachlassverwalter zeigen, dass OpenAI verantwortlich ist – indem sie zum Beispiel argumentieren, dass es die Nutzer dazu ermutigt, die Toten in den Videos zu zeigen.
Grimmelmann weist darauf hin, dass Soras Homepage voller solcher Videos ist, was diese Art von Inhalten fördert. Und wenn Sora mit großen Mengen an Filmmaterial von historischen Persönlichkeiten trainiert wurde, könnten die Kläger argumentieren, dass die App darauf ausgelegt ist, etwas Ähnliches zu reproduzieren. OpenAI könnte sich aber verteidigen, indem es darauf verweist, dass Sora ausschließlich zur Unterhaltung gedacht ist. Und jedes Video trägt ein Wasserzeichen, das verhindert, dass die Zuschauer es für echt halten oder es als kommerziell einzustufen ist.
Laut Bo Bergstedt, der zu generativer KI forscht, geht es den meisten Sora-Nutzer:innen nicht darum, Geld zu machen, sondern auszuprobieren, was geht. „Die Leute behandeln es wie Unterhaltung; sie wollen sehen, welches verrückte Zeug sie sich ausdenken oder wie viele Likes sie bekommen können“, erklärt er. So unangenehm das für die betroffenen Familien sein mag, könnte es mit dem Recht auf Veröffentlichung übereinstimmen.
Wenn dagegen ein Sora-Nutzer durch die Generierung beliebter Video-Clips mit historischen Figuren ein Publikum aufbaut und beginnt, daraus finanzielle Vorteile zu ziehen, könnte er rechtliche Probleme bekommen. Alexios Mantzarlis, Direktor der Initiative für Sicherheit und Vertrauen bei Cornell Tech, merkt an, dass „wirtschaftlich schlecht gemachte KI-Inhalte“ auch das indirekte Geldverdienen über monetarisierte Plattformen umfasst. Die aufstrebenden „KI-Influencer“ von Sora könnten daher mit Klagen von Nachlassverwaltern konfrontiert werden, wenn sie von Verstorbenen profitieren.
Ein „Hau-den-Maulwurf“-Ansatz
In Reaktion auf den Backlash teilte OpenAI Anfang Oktober mit, dass es Vertretern „kürzlich verstorbener“ Persönlichkeiten des öffentlichen Lebens erlauben will zu beantragen, dass deren Abbild aus Sora-Videos entfernt wird. „Zwar gibt es starke Interessen der Meinungsfreiheit bei der Darstellung historischer Persönlichkeiten“, sagte ein OpenAI-Sprecher, „wir sind aber der Meinung, dass Personen des öffentlichen Lebens und ihre Familien letztlich die Kontrolle darüber haben sollten, wie ihr Bild verwendet wird“.
Das Unternehmen hat bisher weder „kürzlich“ definiert noch erklärt, wie Anträge behandelt werden. Auf eine Bitte des Guardian um Stellungnahme reagierte OpenAI unmittelbar nicht.
Allerdings hat OpenAI auch seinen Ansatz der vollständigen Urheberrechtsfreiheit zurückgenommen, nachdem subversive Inhalte wie „Nazi Spongebob“ sich auf der Plattform verbreitet hatten und die Motion Picture Association OpenAI der Urheberrechtsverletzung bezichtigte. Eine Woche nach dem Start wechselte es zu einem Zustimmungsmodell für Rechteinhaber.
Grimmelmann erwartet eine ähnliche Kehrtwende in Bezug auf Darstellungen von Toten. „Es ist möglicherweise nicht haltbar, darauf zu bestehen, dass die Betroffenen eine Löschung beantragen müssen“, erklärt er. „Es ist makaber, und wenn ich diesen Instinkt habe, werden andere ihn auch haben – auch Richter.“
Bergstedt sieht einen „Whac-A-Mole“-Ansatz in Bezug auf den Persönlichkeitsrechtschutz (nach dem Computerspiel, in dem mit „Hau-den-Maulwurf“ auf jedes neu auftauchende Tier reagiert wird), der wahrscheinlich so lange beibehalten wird, bis die Bundesgerichte die Haftung für KI definiert haben.
Für Ajder nimmt die Diskussion um Sora eine größere Frage vorweg, mit der wir alle konfrontiert werden: Wer hat die Kontrolle über unser Abbild im Zeitalter synthetischer Inhalte? „Es ist eine beunruhigende Situation, wenn die Leute einfach akzeptieren, dass sie in hyperrealistischen KI-generierten Inhalt benutzt und missbraucht werden.“