Stichwort | Fall Collien Fenandes: Deepfakes sind die digitale Verlängerung analoger Gewalt

Die Vorwürfe gegen den Schauspieler Christian Ulmen sind schwer zu ertragen. Ein Mann soll seine eigene Ehefrau über zehn Jahre hinweg als Objekt missbraucht haben – mutmaßlich. Das erinnert an den Fall Gisèle Pelicot. Die Schauspielerin Collien Fernandes, seine Ex-Frau, nennt Deutschland zu Recht ein „absolutes Täterparadies“ für digitale Gewalt an Frauen.

Nur fünf Prozent aller Fälle von häuslicher Gewalt werden angezeigt, bei digitaler Gewalt sind es sogar nur 2,4 Prozent. Den Betroffenen wird selten geholfen. Gleichzeitig fehlen bundesweit nach wie vor bis zu 14.000 Plätze in Frauenhäusern. Und das, während gleichzeitig die Gewalt gegen Frauen – gerade auch im familiären Umfeld – seit Jahren zunimmt und jede dritte Frau in Deutschland Opfer von Gewalt wird. Diese Entwicklung hängt eng mit der Zunahme rechter Politik und ideologischer Talking Points zusammen, die Frauenhass als „traditionelle Geschlechterrolle“ verkaufen.

Doch statt gegenzusteuern, denkt Bundesfamilienministerin Karin Prien (CDU) über Kürzungen bei Programmen wie „Demokratie leben!“ nach, ein Ausdruck des allgemeinen Austeritätswahns. Das alles ist unerträglich, aber überraschend ist es nicht. Wie könnte es anders sein in einer Kultur, die schon ihren Kindern beibringt, dass „Du rennst wie ein Mädchen“ eine Beleidigung ist? In der sich Frauen trotz unzähliger genderspezifischer Gaps wie Care Gap, Pension Gap, Health Gap, Motherhood Penalty immer wieder vom cis-männlichen Kollegen in der Kaffeeküche die Mär von der Geschlechtergleichheit anhören müssen?

Was Collien Fernandes erlebt hat, ist nicht überraschend, aber unerträglich. Genau darin liegt das eigentlich Empörende. Es ist bekannt, dass KI digitale Gewalt auf ein neues abstoßendes Level hebt. Elon Musks KI-Bot Grok machte es zum Jahreswechsel mit einer neuen Funktion möglich, ein gepostetes Bild mit nur einem Befehl per KI zu manipulieren. Die Plattform wurde mit sexualisierten Deepfakes vor allem von Frauen geflutet. Schnell folgten Gewaltdarstellungen, blaue Flecken inklusive.

Wer getroffen wird, ist kein Zufall, sondern Ausdruck sozialer Hierarchien

Diese Deepfake-Welle ist nichts anderes als die digitale Verlängerung analoger Gewalt.

Die KI legt nur bloß, was ohnehin schon schwelt: eine ungleiche Verteilung von Verletzbarkeit. Betroffen sind nicht alle gleichermaßen: Es sind überproportional Frauen, queere Personen und andere marginalisierte Gruppen. Rund 98 Prozent aller Deepfake-Videos sind pornografisch, mit ausschließlich weiblichen Betroffenen – sie machen sage und schreibe 99 Prozent aus. Wer getroffen wird, ist kein Zufall, sondern Ausdruck sozialer Hierarchien. KI-Deepfakes und digitalisierte Gewalt wirken als Verlängerung eines patriarchal-entwertenden Systems in den digitalen Raum hinein und verstärken bestehende Machtasymmetrien.

KI-basierte Manipulation ist kein reines Techproblem, sondern ein Problem der Verteilung von Verletzbarkeit. Es geht weit über den einzelnen Täter hinaus. Dahinter steht auch eine organisierte Gleichgültigkeit digitaler Öffentlichkeiten. Der Skandal liegt nicht nur darin, dass Deepfakes ohne Zustimmung entstehen, sondern darin, dass sie in einem System zirkulieren, in dem sich niemand zuständig fühlt. Ein Beispiel dafür ist der „Performance Peak“ im Nachgang medialer Berichterstattung, der nicht nur zu sekundären Traumatisierungen der Betroffenen führen kann, sondern auch die Verbreitung weiter anheizt.

Denn nachdem Fernandes ihren Fall öffentlich machte, suchten viele Nutzer*innen nach dem Deepfake-Material. Das erhöhte die Sichtbarkeit und das Algorithmus-Ranking dieser Inhalte – ein klassischer „Streisand-Effekt“, der dazu führte, dass Plattformen und Suchmaschinen diese Inhalte anderen Nutzer*innen vorschlugen. Was wiederum mehr Personen darauf aufmerksam machte. So verstärken Suchanfragen die Verbreitung unerwünschter Inhalte.

Suchanfragen nach KI-Fakes

Prominente wie die US-amerikanische Sängerin Taylor Swift sind besonders betroffen: 2024 kursierten pornografische, KI-generierte Deepfake-Bilder von dem Popstar auf X und anderen sozialen Netzwerken. Ein Post wurde mehr als 45 Millionen Mal geklickt, bevor er entfernt wurde. Um die toxische Dynamik des digitalen Voyeurismus zu stoppen, blockierte X sogar für kurze Zeit die Suche nach dem Namen „Taylor Swift“.

Aber es sind längst nicht nur Promis betroffen. 2023 sorgte ein Fall in Spanien für Schlagzeilen. Eine Gruppe männlicher Schüler „zog“ fast zwei Dutzend Mitschülerinnen digital per KI-App aus, das jüngste Mädchen war gerade einmal elf Jahre alt. Laut ersten Studien sind rund 2,2 Prozent Personen bereits von Deepfakes betroffen, der Großteil davon Frauen. Mittlerweile ist jede zweite Frau besorgt, Opfer von KI-Deepfakes zu werden.

Das Problem liegt auch in den Logiken der Technologie. Algorithmen verwerten die Aufmerksamkeit ökonomisch und steigern die Nachfrage in der Skandalisierung. Das alles ist bekannt – weder erst seit Groks Frauenhass-Explosion Ende 2025 noch seit Fernandes’ Fall. Dagegen angegangen wurde bislang aber kaum.

Fernandes spricht von der „virtuellen Vergewaltigung“

Das hat vor allem damit zu tun, dass es für Deepfake-Missbrauch in Deutschland keinen eigenen Straftatbestand gibt. Es greifen nur Delikte wie etwa Beleidigung, Verletzung des Persönlichkeitsrechts oder des Rechts am eigenen Bild. Aber diese werden der Schwere der Tat nicht gerecht. Zu dieser fehlenden Rechtsgrundlage kommen Strafbarkeitslücken hinzu. So ist die Erstellung von Deepfake-Material zwar verboten, die Verbreitung aber schwer nachweisbar, und für Tatbestände wie Vergewaltigung oder sexuelle Nötigung ist direkter körperlicher Kontakt nötig.

Fernandes spricht von der „virtuellen Vergewaltigung“, doch die Rechtslage gibt das nicht her. Deshalb erstattete sie nach eigener Aussage auch in Spanien Anzeige, wo sie und ihr Mann zeitweilig lebten und strengere Gesetze gelten.

Auch andere Länder sind Deutschland hier voraus. So gelten Deepfake-Pornos in Südkorea als Sexualstraftat mit bis zu mehreren Jahren Haft, und auch der Besitz kann strafbar sein. In Großbritannien sind Übergriffe wie Upskirting – das heimliche Fotografieren oder Filmen unter die Kleidung – mittlerweile kriminalisiert. Immerhin hat SPD-Justizministerin Stefanie Hubig jüngst angekündigt, dass Deutschland nachschärfen will. Ein Gesetzesentwurf soll bald vorgelegt werden, der den Schutz vor pornografischen Deepfakes verbessern soll. Einen ähnlichen Versuch gab es allerdings schon vor zwei Jahren aus dem Bundesrat heraus – der scheiterte damals aber.

Care als Ansatz für Neues

Es braucht aber nicht nur den gesetzlichen Rahmen. Notwendig ist außerdem ein grundsätzliches und radikales Umdenken, wie es feministische Care-Ethiker*innen wie Joan Tronto seit den 1980er Jahren fordern. Sie sehen Verletzlichkeit als Ausgangspunkt menschlicher Gemeinschaft. Nicht die einzelne Grenzüberschreitung ist das Problem, sondern ein System, das Verletzbarkeit ungleich verteilt – und Verantwortung verdunsten lässt.

Care oder Sorgearbeit – verstanden als „Tätigkeit, die alles umfasst, was wir tun, um unsere Welt zu erhalten, fortzuführen und zu reparieren, sodass wir in ihr so gut wie möglich leben können“, so Joan Tronto – wird zur Voraussetzung demokratischer und pluralistischer Gesellschaften, die im analogen wie digitalen Raum Verletzbarkeiten und Verantwortung gerecht verteilen.

Vielleicht haben wir jetzt eine Stufe von Unerträglichkeit erreicht

Davon sind wir derzeit, das beweist der aktuelle Fall einmal mehr, meilenweit entfernt. Aber: Wenn man so will, lässt sich das KI-bedingte massive weitere Abdriften in vorher ungekannte patriarchale Untiefen auch als Chance begreifen. Nach dem freien Fall der letzten paar Jahre – allein 2024 ist die Zahl der frauenfeindlichen Straftaten im Vergleich zum Vorjahr um 73 Prozent gestiegen, 2025 war das schlimmste Jahr im Bereich Materialien zu sexuellem Kindesmissbrauch.

Vielleicht haben wir jetzt eine Stufe von Unerträglichkeit erreicht, hinter die wirklich niemand mehr zurückkann. Die Qualität der Eskalation hat einen Akkumulationspunkt erreicht, der nicht mehr kleingeredet, als Missverständnis, Einzelfall, Beziehungstat oder Privatsache abgetan werden kann. Nein, wir sind nicht alle gleichermaßen verantwortlich, wie wir nicht alle gleichermaßen davon betroffen sind. Aber wir alle tragen Verantwortung dafür, dass sich etwas ändert. Jetzt.

AndersBeleidigungBerichterstattungBildBundesratCDUChristianDeepfakesDelikteDemokratieDeutschlandDigitalDigitaleElonEndeEntwicklungFernandesFrauenGeschlechterrolleGesetzeGewaltGewalt gegen FrauenGroßbritannienHaftHubigJoanKarinKIKindesmissbrauchKleidungKollegenKulturlebenMANMannMissbrauchNötigungPelicotPensionPersonenPolitikPostPrienRechtSchauspielerSchülerSpanienSPDStefanieStraftatenStudienSuchmaschinenSüdkoreaSwiftTäterTaylorUlmenUSVergewaltigungWELTWillXZeitZur