Es ist ziemlich leicht, die eigene Freundin zur Pornodarstellerin zu machen. „Das kostet dann 16 Dollar“, sagt ein Mann, der sich auf sogenannte „Deepfakes“ spezialisiert hat. Wir geben uns als interessierten Kunden aus, der einen Porno bei ihm beauftragt. Er erklärt uns, wie es läuft: Erst das Geld überweisen, dann ein ganz normales Porträtfoto der Freundin schicken.
In seinem Telegram-Kanal teilt er die echten Vorlagen von Frauen, die angezogen im Auto sitzen oder im Kleid posieren – daneben dann das, was er daraus gemacht hat: Die gleichen Frauen lächeln nun nicht mehr, sondern finden sich nackt, geknebelt, vergewaltigt.
Der Missbrauch mit Deepfakes ist seit Jahren weit verbreitet. Das Leid, das sie bei den Frauen auslösen, dringt dagegen gerade erst ins öffentliche Bewusstsein. Während es in anderen Ländern längst große Debatten über den Missbrauch von Frauenfotos gab, lenkt der Fall von Collien Fernandes hierzulande erst jetzt den Blick auf ein gravierendes Problem. Die Schauspielerin sucht seit vielen Jahren nach den anonymen Tätern im Internet, die gefälschte Pornos und Nacktbilder von ihr verbreiten – und beschuldigt nun ihren Ex-Mann Christian Ulmen. Ein Fall, der viele wohl deshalb so bewegt, weil sie Ähnliches erleben. Und weil das Gesetz hier einer Technik hinterherhinkt, die längst nicht mehr neu ist.
Aber was passiert da eigentlich genau? Wie gehen Männer vor, die solche Pornos erstellen und verbreiten? Und wie sprechen und denken sie darüber?
Wir beginnen im Darknet zu recherchieren. Sehr schnell finden wir Links, die zu Chatgruppen führen. Dort lesen wir mit. In geheimen Gruppen auf Discord, aber auch in Chats auf Telegram und in Foren auf Reddit, die in nur wenigen Klicks im Internet erreichbar sind.
„Das ist das Foto meiner Cousine. Wer kann mir mit dem Video helfen?“
Auf Discord finden wir eine Chatgruppe mit mehr als 29.000 Mitgliedern. Ihre Nutzer schreiben überwiegend auf Englisch, ihre Zitate sind übersetzt. In der Gruppe teilen sie selbst erstellte Fotos und Videos, bewerten die der anderen und fragen nach technischen Tipps. „Das ist das Foto meiner Cousine. Wer kann mir mit dem Video helfen?“, schreibt einer. Er postet das Foto einer nackten Frau.
Wer genau diese Nutzer sind, lässt sich nicht sagen. Sie nutzen ausschließlich anonyme Accounts. Doch vieles deutet darauf hin, dass sich hier fast ausschließlich Männer austauschen. Sie nennen sich Gabriel, Adam, Sascha, Marius oder auch Mr. Red, Der Rick, Dokmen. Vor allem aber lassen die Inhalte, die sie verschicken, Rückschlüsse auf ihr Geschlecht zu: Es sind fast immer Fotos und Videos von nackten Frauen.
Die Vorlagen dafür stammen von Freundinnen, Ehefrauen, Lehrerinnen, Schauspielerinnen. Das jedenfalls behaupten die Ersteller. „Meine Freundin“, schreibt freddynando13 und schickt ein Foto, auf dem eine Frau in entwürdigender Pose zu sehen ist. Manche bieten die eigene Freundin auch anderen zur freien Verfügung an. „Zeigt meiner Freundin mal, was ihr alle mit ihr machen könnt“, schreibt einer und schickt das Foto einer jungen Frau im Abendkleid, die freundlich in die Kamera lächelt. Dann brüstet er sich damit, was er selbst mit ihr machen kann. Die Frau ist nun nackt in verschiedenen Posen zu sehen. Auf dem Sofa, in der Badewanne, beim Sex.
Die Nutzer wissen offenbar, dass sie Straftaten begehen
Offiziell sind Pornos, die echte Personen zeigen, hier nicht erlaubt. Die Nutzer wissen offenbar, dass sie Straftaten begehen. Sie schreiben deshalb nicht von „realen“, sondern von „realistischen“ Frauen. Manchmal gehen die Plattformen trotzdem gegen offensichtlichen Missbrauch vor. Wenn dann eine Fehlermeldung erscheint oder das Foto von der Website gelöscht wird, ist der Unmut groß. Doch schnell stehen andere Männer mit findigen Tipps parat: Wer Deepfakes veröffentlichen wolle, solle einfach mit der KI ein Modell bauen, das der echten Person zum Verwechseln ähnlich sieht. Diese Vorlagen, sogenannte „Loras“, können sie dann auch für alle anderen Nutzer zugänglich machen. „Habt ihr gesehen, es gibt ne Lora für Anna Lena Baerbock und Luisa Neubauer“, schreibt ein Nutzer.
Nicht jeder will sich diesen technischen Herausforderungen stellen. Es gibt deshalb auch viele einfach programmierte Bots, etwa auf Telegram. Man schickt ein Foto und kann sich einen Körper aussuchen, auf den das Gesicht montiert werden soll. Doch als echte Aufnahme gehen die Ergebnisse nicht durch. Vor allem längere Videos sind technisch anspruchsvoll.
In den Chatgruppen sehen manche deshalb ein Geschäftsmodell. Sie bieten an, Deepfakes für andere Männer zu erstellen. Sie schicken Arbeitsproben in die Gruppen und werben mit ihrem Talent. „Kannst du mir helfen? Ich will ein echtes Foto in ein Nacktbild verwandeln“, schreibt ein Nutzer. Ein Mann antwortet: „Ja, das kann ich machen.“
Auch wir schreiben ihm.
Wir schmeicheln dem selbst erklärten „KI-Influencer“ und fragen, ob er auch aus Fotos von echten Menschen Pornos generiert. „Hi man, ja das mache ich“, antwortet er und schickt einen Link zu seiner Telegram-Gruppe, in der er seine Arbeitsproben teilt. Bei vielen der Fotos und Videos sieht es tatsächlich so aus, als hätte er Fotos von echten Frauen genutzt. Das Bild von vier Schülerinnen in einem unaufgeräumten Kinderzimmer etwa, die nackt vor einem Spiegel posieren.
Als wir fragen, ob das die Gesichter von echten Frauen sind, schreibt er: „Ja.“ Wir haken nach. Ob er die Erlaubnis dieser Frauen hat? Wo er die Fotos her hat? Was mit unserem Foto passieren wird? Der Mann wird ungeduldig, weicht aus. „Hör mal, Bro“, schreibt er. Er habe viel zu tun. „Melde dich, wenn du bereit bist.“
Für ihn sind auch „KI-generierte Kinderpornos“ etwas Gutes
Was die Männer tun, ist Unrecht. Aber offensichtlich fühlt es sich für sie nicht so an. Davon kriegt man einen Eindruck, wenn man sich ihre Diskussionen auf Reddit ansieht, einem öffentlichen Internetforum. „Es ist so wie Photoshop, nur einfacher“, schreibt einer mit dem Namen TitanAnteus. Es habe schließlich auch niemanden interessiert, wenn ein „begabter Photoshop-Nutzer“ Nacktfotos montiert habe. Wieso sollte es jetzt anders sein? Dafür gibt es jede Menge Zuspruch im Forum.
Die Nutzer geben sich hier gegenseitig Tipps, wie man am besten Nacktbilder von der Sängerin Taylor Swift erstellt. Und beginnen schließlich eine Diskussion darüber, ob das legitim ist. Die meisten finden: Ja. Man dürfe die KI nicht zensieren, meint etwa IFlip92. Regulierung und Bürokratie würden alles kaputtmachen. Ein anderer hakt kritisch ein: Das sei ja wohl „eine schwache Ausrede, um Menschen von ihrer Verantwortung freizusprechen“. Hier wird IFlip92 ärgerlich: „Wer bist du, dass du andere zur Rechenschaft ziehst?“ Für ihn sind auch „KI-generierte Kinderpornos“ etwas Gutes, weil sie „Fantasien befriedigen und echte Kinder schützen“. Es sei nun mal ein Naturgesetz: „Was der Mensch erschafft, wird zur sexuellen Befriedigung genutzt.“
Dem Photoshop-Argument begegnen wir auf Reddit immer wieder. So wie dem Argument, dass man mit den Bildern prominenter Frauen sowieso alles machen dürfe. „Prominente sollten kein Recht am eigenen Bild haben“, heißt es etwa in einem anderen Reddit-Forum. „Wir sollten Deepfake-Pornos von jedem machen dürfen.“ „Stimme zu“, kommentiert einer. „Interessante Perspektive“, lobt ein anderer.
Je stärker die Frau, desto größer der Wunsch, sie digital zu entblößen
So redete auch der Betreiber der bis vor Kurzem noch größten Deepfake-Plattform „MrDeepfakes“. Prominente Frauen seien „anders als normale Frauen“, sagte er im Jahr 2022 in einem Interview mit der britischen BBC. Sie seien an negative Kommentare gewöhnt, ihre Bilder seien eh überall zu sehen. „Ich finde nicht, dass Einverständnis nötig ist.“
Seine Plattform ist inzwischen gesperrt. Doch im Darknet kann man sie immer noch ansteuern. Dort kann man dann auch die Videos vieler Prominenter und Politikerinnen aus Deutschland finden. Es scheint etlichen Männern ein Bedürfnis zu sein, erfolgreiche Frauen zu demütigen. Es sieht aus wie ein Muster: Je stärker die Frau, desto größer der Wunsch, sie digital zu entblößen und zu verletzen.
Wenn einem Deepfaker doch mal Zweifel kommen, redet die Community sie ihm schnell wieder aus. „Ist es normal, Deepfakes von seiner eigenen Ehefrau zu erstellen?“, fragt ein Nutzer namens Hopeful-Scallion-632 auf Reddit. Doch anstatt auf die Frage zu antworten, wollen die Kommentatoren nur wissen, welche Software er benutzt. „Mir geht es auch so“, schreibt einer, „mit was machst du die Bilder denn?“ Ein anderer beruhigt ihn: „Du bist nicht allein!“ Auch er sei glücklich verheiratet, aber die Deepfakes seien „eine tolle Möglichkeit, sich etwas zu gönnen“.
Um die Frauen geht es nie. Was es für sie heißt, virtuell erniedrigt zu werden, spielt in den Diskussionen keine Rolle. Ebenso wenig wie die Frage, was für ein Martyrium für eine Frau beginnt, wenn diese Bilder von Bekannten entdeckt werden oder sogar in der Google-Suche auftauchen. Wenn eine junge Dozentin aus Deutschland sich plötzlich mit Klarnamen auf allen möglichen Pornoseiten wiederfindet – und daraufhin Job, Stadt und Freundeskreis wechseln muss. Oder wenn die Tochter auf den Deepfake-Porno ihrer Mutter stößt – wie im Fall einer bekannten deutschen Schauspielerin – und der Fund für immer das Familienleben zerstört.
Irgendwer hat die Videos immer heruntergeladen
Die meisten Frauen sprechen wohlweislich nicht öffentlich über das Unrecht, das ihnen geschieht. Nur wenige gehen überhaupt gegen die illegalen Bilder vor. Zu groß ist die Scham, noch mehr Blicke auf die demütigenden Videos zu lenken. Viele Frauen machen die Erfahrung, dass die deutsche Justiz mit den Fällen überfordert ist, und die Täter unbehelligt weitermachen können. Bequemt sich ein Anbieter nach langem Prozess dann doch dazu, die geraubten und gefakten Bilder zu löschen, tauchen sie schon am nächsten Tag wieder auf. Irgendwer hat die Videos immer heruntergeladen, irgendwer lädt sie auch garantiert wieder hoch.
„Die ganze Last liegt bei den Betroffenen“, sagt Anna-Lena von Hodenberg, die solche Frauen mit ihrer Organisation „HateAid“ berät. Sie müssen alle Plattformen durchsuchen und jedes Video einzeln melden. „Dabei müsste es umgekehrt sein!“
Dass Justizministerin Stefanie Hubig nun einen eigenen Straftatbestand für Deepfakes schaffen will, hält von Hodenberg für überfällig. Denn erst wenn die Erstellung zur Straftat wird, kann man rechtlich gegen die Apps und Websites vorgehen. Aber aus ihrer Sicht reicht das nicht, um wirklich etwas an der Lage zu ändern. „Eigentlich müssen wir an das Geschäftsmodell der Plattformen ran, die an solchen Bildern verdienen.“
Keine Frau will Opfer sein
HateAid kämpft seit Jahren dafür, das auf europäischer Ebene endlich zu regeln. Doch während der sogenannte „Digital Services Act“ der EU für angebliche Überregulierung in der Kritik steht, bleibt der Missbrauch mit Frauenfotos weitgehend unreguliert. „Oft brauchen Männer noch nicht mal ein Profil, um ein Deepfake-Video auf einer Pornoseite hochzuladen“, sagt von Hodenberg. Als das Digitalgesetz vor ein paar Jahren verhandelt wurde, machte sie sich deshalb mit ihrer Organisation dafür stark, dass Uploader sich mit einer Telefonnummer registrieren müssen. Nicht die Kunden, wohl aber diejenigen, die Videos bereitstellen, sollten im Fall einer Straftat identifizierbar sein.
Die Frauen von HateAid glaubten eigentlich, dass der Kommission die Dringlichkeit bewusst war, nachdem gerade überall Deepfake-Apps aufploppten. „Doch dann ist das alles wieder rausgeflogen aus dem Gesetzestext“, sagt von Hodenberg konsterniert. Sie weiß noch genau, wie die Piratenpartei an diesem Tag im Jahr 2022 darüber jubelte, dass die Grundrechte von Pornokonsumenten geschützt würden. „Wir haben alle Grundrechte“, sagt sie. „Aber die der Männer wiegen offenbar schwerer als die der Frauen und Mädchen, deren Identitäten geraubt und missbraucht werden.“
Keine Frau will Opfer sein. Es erfordert Mut, über das Erlittene zu sprechen. Und es braucht viel Widerstandskraft, um einen langen juristischen Kampf ohne große Erfolgsaussichten aufzunehmen. Collien Fernandes erfährt gerade, was alle Frauen erfahren, die sich wehren: Statt für das Unrecht interessieren sich die meisten nur für ihre Nacktbilder, wie die Auswertung der Google-Suchen zeigt.
Jeden Tag macht es die Technik Jungs und Männern ein Stück leichter
Die meisten Männer schauen Pornos. Nach verschiedenen Erhebungen sind es in Deutschland 80 bis 90 Prozent. Jungs und Mädchen wachsen mit Hardcore-Pornos auf, bevor sie überhaupt eine Chance haben, ihre eigene Sexualität zu entdecken. Mit Künstlicher Intelligenz liegt die Versuchung nur einen Klick entfernt, Mitschülerinnen, Exfreundinnen oder Idole so zu sehen wie in der eigenen Phantasie – oder sich für unerwiderte Gefühle an ihnen zu rächen. Jeden Tag macht es die Technik Jungs und Männern ein Stück leichter. Jeden Tag werden mehr Mädchen und Frauen zu Opfern.
Gerade erst vor einem Monat haben Jungs im Alter von zwölf bis 14 Jahren an einer Schweizer Schule KI-Nacktbilder von ihren Mitschülerinnen erstellt und in den sozialen Medien geteilt. In Hessen war es ein Lehrer, der vor wenigen Monaten einen KI-Porno von einer Schülerin erstellt hat. Man kann unzählige solcher Fälle auf der ganzen Welt finden. Und das sind nur jene, die es in die Medien geschafft haben.
Auf Reddit, der Plattform, die viele Täter nutzen, um sich über Deepfakes auszutauschen, suchen manchmal auch Opfer den Schutz der Anonymität, um sich ihr Leid von der Seele zu schreiben. „Ich hätte nie gedacht, dass ich auf Reddit nach Rat suchen müsste, aber hier bin ich nun“, schreibt etwa eine Nutzerin, die sich auf Englisch als vierzehnjähriges Mädchen vorstellt. Seit Kurzem sei sie mit einem gleichaltrigen Jungen zusammen, erklärt sie.
„Bisher lief alles super“, aber dann habe er ihr plötzlich gebeichtet, dass er Nacktfotos von ihr erstellt habe. Aus den Screenshots aus ihrem Chat geht hervor, wie überfordert das Mädchen von den Informationen ist, die der Junge mit ihr teilt. Seitenweise dreht sich die Konversation dann um seine Gefühle statt um ihre. Wie schwer er seine Lust kontrollieren könne. Dass er hoffe, dass sie ihm verzeihe. „Ich sagte nur, dass ich ihm verzeihe, aber ehrlich gesagt bin ich mir nicht sicher, was ich fühlen soll“, schreibt das Mädchen. „Ich brauche wirklich Hilfe und hoffe inständig, dass er das hier nicht findet.“
Das war vor zehn Monaten. Vor elf Tagen schließlich wieder ein Post: „Ich habe in letzter Zeit sehr zu kämpfen, hauptsächlich wegen etwas, das vor 10 Monaten passiert ist“, schreibt die Nutzerin. „Ich habe so getan, als würde es mich nicht stören, aber das hat es. Ich fühle mich einfach nur ekelhaft. Ich habe nicht das Gefühl, dass mein Körper mir gehört. Es fühlt sich an, als ob ein Roboter meinen Körper steuert.“
Source: faz.net