Kürzlich testete ich mit meinem Freund eine neue
KI-Plattform aus, die das gesamte Internet nach Bildern einer bestimmten Person
durchsuchen kann. Nachdem wir ein Bild von mir hochgeladen hatten, bekamen wir
folgende Nachricht: „We found 197 photos potentially
featuring your face, across 126 websites that either host or display them.“
Das Tool hat uns unter anderem eine Liste von Pornoseiten ausgespuckt, auf
denen Fotos zu
sehen waren, die von mir in meinen frühen Zwanzigern gemacht wurden.
Mein Freund war schockiert. Für mich war es
unangenehm, aber keine Überraschung. Das Internet vergisst nicht, und noch
weniger verzeiht es. Über die Jahre habe ich
viele Bilder von mir auf Social Media gepostet, die auf diesen Pornoseiten
anscheinend als Softporno durchgingen. Ich habe für ein Kalenderprojekt
gemodelt, mich auf der Straße in Unterwäsche für eine Body-Positivity-Kampagne fotografieren lassen und für meinen Satire-Wahlkampf im Rahmen der Berliner Abgeordnetenhauswahl als Domina posiert. Die Fotos habe ich schon vor
vielen Jahren in zwielichtigen Foren entdeckt, aber nie die Kraft gefunden,
etwas dagegen zu unternehmen.
Digitale Gewalt gegen Frauen hat mittlerweile jedoch ganz neue Dimensionen erreicht. Laut des im November 2024
vorgestellten Lagebildes „Geschlechtsspezifisch gegen Frauen gerichtete
Straftaten“ des Bundesinnen- und Bundesfamilienministeriums hat sich im
Zeitraum zwischen 2018 und 2023 die Anzahl der weiblichen Opfer digitaler
Gewalt mehr als verdoppelt. Auffällig ist der rapide Anstieg der Fälle von
sogenannter bildbasierter sexualisierter Gewalt.
Besonders die Erstellung und Verbreitung von
Deepfake-Pornografie hat in den letzten Jahren stark zugenommen. Dabei handelt
es sich um die KI-gestützte Manipulation von Bildern, bei der Gesichter realer
Personen in pornografische Szenen eingefügt werden. So soll der Eindruck entstehen, dass diese Personen an den
dargestellten Handlungen teilnehmen, obwohl sie dies nicht tun. Diese
Technologie wird häufig genutzt, um Frauen gegen ihren Willen zu sexualisieren,
zu demütigen und zu verleumden. 96 Prozent aller
online gefundenen Deepfake-Videos (PDF) sind pornografischer Natur, die ohne
Einverständnis erstellt wurden – betroffen sind fast ausschließlich Frauen.
Einst waren fast alle der dargestellten Personen
in Deepfake-Pornografie weibliche Stars, inzwischen werden auch zunehmend
Nichtprominente gezeigt. Die nötige Technologie dafür findet sich leicht im
Netz.
Schauspielerinnen, Politikerinnen,
Aktivistinnen, Frauen, die im öffentlichen Raum präsent sind, werden durch
Deepfakes eingeschüchtert. Häufig zielt diese Form der digitalen Gewalt darauf
ab, Frauen zum Schweigen zu bringen. Wie im Fall der nordirischen Politikerin
Cara Hunter, die mit 24 Jahren
zum ersten Mal für ein Amt kandidierte, als ein pornografisches Deepfake-Video von ihr
verbreitet wurde. Sie
versuchte, sich zu wehren, und ging zur Polizei. Die sagte ihr, sie könne ihr
nicht helfen, weil niemand gegen ein Gesetz verstoßen habe. Kurzzeitig wollte
Hunter nach eigenen Aussagen alles hinschmeißen, ihre politische Karriere
beenden. Rückblickend hält sie genau das für die Absicht des Täters oder der
Täter: sie zu verunsichern und so aus der Öffentlichkeit zu drängen.
Die Forderung, gegen Deepfakes vorzugehen, ist von
aktivistischer Seite längst da. Eine europaweite
Studie ergab, dass 30 Prozent der befragten Frauen Angst davor haben (PDF), dass
gefälschte Nacktbilder oder intime Aufnahmen ohne ihre Zustimmung online
veröffentlicht werden könnten. „Frauen sagen online seltener ihre Meinung, aus
Angst vor digitaler Gewalt. Mit dieser Angst wachsen Mädchen und junge Frauen
auf und sind dieser Gewalt schutzlos ausgesetzt“, sagt Eva Pasch von der
Organisation HateAid. „Das bedroht massiv ihre Teilhabe am öffentlichen Diskurs
und damit unsere Demokratie.“
HateAid fordert daher,
konsequent gegen bildbasierte sexualisierte Gewalt vorzugehen und die
Erstellung und Verbreitung von sexualisierten Deepfakes unter Strafe zu
stellen. Außerdem fordert die Organisation, es den Betreibern sogenannter
Face-Swap-Apps zu verbieten, mit der Erstellung sexualisierter Deepfakes zu
werben.
Auch wenn es für jede Frau ein entwürdigender, belastender
Angriff ist, können sich Privatpersonen oft keinen Rechtsbeistand leisten, um
gegen Deepfakes vorzugehen. Und ohne eine neue gesetzliche Grundlage im Rücken kommt
keine Frau weit, berühmt oder nicht. Das sagt etwa die Schauspielerin Collien
Ulmen-Fernandes, die versuchte, mithilfe
zahlreicher Anwälte gegen eine Deepfake-Darstellung von ihr vorzugehen – ohne
Erfolg.