Meinung | Nachfrage nach Deepfake-Pornos explodiert: Betroffene sind machtlos

In der Werbeanzeige sieht eine Frau in einem weißen Spitzenkleid mit anzüglicher Mimik in die Kamera und kniet dann nieder. Sie hat irgendwie etwas Seltsames an sich: ein Zittern an ihrer Schläfe, merkwürdig unbewegliche Lippen. Aber fände man das Video im Internet, würde man vielleicht nicht merken, dass es gefälscht ist. Man hätte einfach den Eindruck, die Anfangsbilder eines billigen Internetpornos vor sich zu haben.

Doch in der rechten oberen Ecke ist während der Videoschleife ein Standbild der Schauspielerin Emma Watson zu sehen, das sie als Teenager bei Werbeaufnahmen für die Harry-Potter-Filme zeigt. Ihr Gesicht ist es, das auf das der Pornodarstellerin montiert wurde. Plötzlich ist eine Frau in einem Porno zu sehen, die noch nie in einem mitgespielt hat.

Die Werbung leitet die Nutzer zu einer App weiter, mit der sich Deepfake-Videos erstellen lassen. Laut einer Untersuchung von Kat Tenbarge für NBC News finden sich derartige Anzeigen in mehr als 230 Versionen auf Facebook, Instagram und dem Messenger von Meta. Die meisten Anzeigen benutzen das Bild von Watson, einige andere verwendeten das Gesicht der US-amerikanisch-dänischen Schauspielerin Scarlett Johansson.

Die gleichen Anzeigen erschienen in Fotobearbeitungs- und Spiele-Apps, die im Apple App Store erhältlich sind. Damit die Botschaft bei den Betrachtern auch wirklich ankommt, machen die Anzeigen sehr deutlich, dass die Apps den Nutzern dabei helfen sollen, nicht einvernehmliche Pornos von Frauen zu erstellen. „Tauschen Sie JEDES GESICHT in dem Video aus!“, heißt es in der Anzeige. „Ersetzen Sie das Gesicht mit dem irgendeiner Person. Viel Spaß mit der AI Face Swap Technologie.“

Ähnliche Anzeigen für Deepfake-Dienste sind direkt neben expliziten Videos auf dem Porno-Streamingdienst PornHub zu sehen. Die Deepfake-Technologie kann theoretisch für jeden Inhalt genutzt werden – von scherzhafter Satire bis hin zu böswilligen politischen Desinformationskampagnen. Aber überwiegend werden mit Hilfe der Technologie nicht einvernehmliche Pornos hergestellt. Laut einem Bericht von 2019 sind 96 Prozent des online gestellten Deepfake-Materials pornografisch.

Deepfake-Pornografie-Skandal in Videospiel-Community

Dabei könnte diese Zahl noch steigen. Die Anzeigen auf Meta- und Apple-Plattformen erschienen jedenfalls, als die Nachfrage nach Deepfake-Pornografie bereits explodierte. Der Anstieg kam nach einer Kontroverse, die die Online-Videospiel-Communitys im Januar erschütterte. Der beliebte US-amerikanische Streamer Brandon Ewing, der sich selbst „Atrioc“ nennt, hatte Deepfake-Pornografie mit den Gesichtern mehrerer beliebter Streamerinnen veröffentlicht.

Später gab er zu, dass er für die künstlichen Pornos mit den Bildern der Frauen, die seine Kolleginnen und Freundinnen waren, bezahlt hatte. Auf die Idee brachte ihn eine ähnliche Anzeige wie die, die auf Meta und Apple-Plattformen erschienen sind. Die Frauen, deren Bilder für Ewings Pornografie missbraucht wurden, reagierten wütend und verletzt. Ewing entschuldigte sich. Aber der Vorfall scheint die vor allem jungen und männlichen Follower des Streamers stärker auf das Vorhandensein von Deepfake-Inhalten aufmerksam gemacht zu haben – und scharf darauf, diese Angebote selbst zu nutzen.

Die Livestreaming-Forscherin Genevieve Oh sagte gegenüber dem US-Sender NBC, dass nach Ewings Entschuldigung der Web-Traffic auf den wichtigsten Deepfake-Porno-Seiten explodierte. Dieser schnelle Anstieg in den vergangenen Wochen folgte auf einen langsameren, aber alarmierenden Trend im Deepfake-Racheporno-Sektor in den vergangenen Jahren. 2018 waren weniger als 2.000 Videos auf die bekannteste Deepfake-Streaming-Seite hochgeladen worden. 2022 war die Zahl auf 13.000 angeschwollen, bei monatlich 16 Millionen Aufrufen. Während Deepfake-Rachepornos beliebter werden, ist die Hürde zum Zugang dazu ziemlich niedrig: Die App, die Watsons Gesicht in ihren Anzeigen missbraucht, ist für nur acht US-Dollar (7,50 Euro) die Woche zu haben.

Gewalt, Schmerz, Erniedrigung

Die rapide Zunahme der Anzahl und Verfügbarkeit von nicht einvernehmlichen Deepfake-Porno-Videos wirft alarmierende Fragen zu Datenschutz und Einwilligung in der digitalen Zukunft auf. Wie wird die große Zahl der Frauen – und die kleinere, aber bedeutende Zahl an Männern -, die von dieser neuen, von künstlicher Intelligenz (KI) ermöglichten Rachepornografie betroffen sind, ihren Ruf schützen und ihr Leben weiterführen? Mit einer weiteren Verbesserung der Technologie wird es nur noch schwieriger: Wie sollen die Zuschauer dann den Unterschied zwischen Tatsachen und KI-generierter Fiktion erkennen? Und: Wie lässt sich nicht einvernehmlich entstandenes Filmmaterial entfernen, wenn das Internet sich so viel schneller bewegt als Regulierungen?

Aber das Beispiel dieser Apps – und der Männer wie Ewing und seinen Fans, die sie nutzen – macht auch etwas Älteres und Unangenehmeres über die Natur von Pornografie deutlich: dass Männer sie häufig als einen Ausdruck ihrer Frauenverachtung nutzen und meinen, dass die sexuelle Darstellung von Frauen diese erniedrigt und ihnen Gewalt antut. Das ist tatsächlich ein großer Teil der Anziehungskraft von Mainstream-Pornos, zumindest laut Ansicht vieler der Männer, die sie konsumieren. Sie gehen davon aus, dass Pornografie Männern die Vorstellung ermöglicht, Macht über Frauen zu haben und ihnen Schmerz und Erniedrigung anzutun. So gesehen ermöglicht Deepfake-Rachepornografie mit Hilfe von Technologie nur das, was Mainstream-Pornos Männern in der Fantasie boten: die Versicherung, dass jede Frau durch sexuelle Gewalt erniedrigt, entwürdigt und gedemütigt werden kann. Die Nicht-Zustimmung ist genau der Punkt; die Erniedrigung ist der Punkt; und auch die Grausamkeit.

Es gibt eigentlich keine andere Möglichkeit, die Anziehungskraft von Deepfake-Pornografie zu verstehen: Es ist ja nicht so, dass es im Internet an sexuellen Inhalten fehlt, die echte Erwachsene zeigen, die ihre Zustimmung dazu gegeben haben. Was diese Apps ihren Nutzern bieten, ist ganz speziell und ausdrücklich die Gelegenheit, Frauen zu verletzen, indem man sie zwingt, gegen ihren Willen in Pornografie zu erscheinen. Nach Ewings Veröffentlichung der Deepfake-Pornografie vor seinem Streaming-Publikum, machte eine der betroffenen Frauen ein eigenes Video. Unter Tränen beschrieb sie darin, wie die Bösartigkeit und Missachtung des Deepfakes sie verletzt hatte. Als Reaktion schickte ihr ein Mann ein Bild von ihrem eigenen weinenden Gesicht, das auf seinem Tablet zu sehen war. Der Bildschirm war mit Sperma bedeckt.

Derzeit haben Frauen und andere, die Zielscheibe von Deepfake-Rachepornos sind, nur wenige Möglichkeiten, rechtlich dagegen vorzugehen. Die meisten US-Bundesstaaten haben Gesetze, die Rachepornos unter Strafe stellen, aber nur vier – Kalifornien, New York, Georgia und Virginia – verbieten nicht einvernehmliche Deepfakes. Die Unternehmen, die die Apps bereitstellen, haben ihren Sitz oft im Ausland, meist außerhalb der Reichweite der Strafverfolgungsbehörden. Das Unternehmen, dessen App auf Meta beworben wurde, gehört offenbar einer Muttergesellschaft mit Sitz in China. Unterdessen dürften immer mehr Männer die Technologie gegen immer mehr Frauen einsetzen. „Ich war auf der verdammten Pornhub-Seite … und dort war eine Anzeige“, erklärte Ewing in seinem Entschuldigungsvideo, wie er auf die KI-Rachepornoseite gekommen war. „Bei praktisch allen Videos bekommt man Werbung dafür. Daher weiß ich: Andere Leute müssen da draufklicken.“

Moira Donegan ist Kolumnistin des Guardian US