„Füge Blut und Narben hinzu“: Wie Missbrauchs-Anfragen an Grok eskalierten

Wie Tausende Frauen weltweit wachte Evie, eine 22-jährige Fotografin aus Lincolnshire, am Neujahrstag auf, schaute auf ihr Handy und stellte erschrocken fest, dass Fotos von ihr in voller Kleidung mit Elon Musks KI-Tool Grok digital manipuliert worden waren, sodass sie nur noch einen Bikini trug.

Der „Steck sie in einen Bikini“-Trend begann Ende letzten Jahres eher unbemerkt, bevor er Anfang 2026 explosionsartig zunahm. Innerhalb weniger Tage gingen beim Grok-Chatbot Hunderttausende Anfragen ein, Frauen auf Fotos zu entkleiden. Die gefälschten, sexualisierten Bilder wurden öffentlich auf X gepostet und standen Millionen von Menschen zur Ansicht frei zur Verfügung.

Vergleichsweise gemäßigte Anfragen von X-Nutzern, Fotos so zu verändern, dass Frauen in Bikinis zu sehen sind, entwickelten sich in der ersten Woche des Jahres stündlich zu immer expliziteren Forderungen: Dass Frauen transparente Bikinis tragen sollten, dann Bikinis aus Zahnseide, in sexualisierten Posen, und sich die abgebildeten Frauen so bücken sollten, dass ihre Genitalien sichtbar waren. Bis zum 8. Januar stellten Nutzer laut einer für den Guardian durchgeführten Analyse stündlich bis zu 6.000 Bikini-Forderungen an den Chatbot.

Reaktion auf Kritik: Noch mehr Anfragen zu missbräuchlichen KI-Bildern

Diese beispiellose Verbreitung der Nudification-Technologie löste bei den betroffenen Frauen sofort Entsetzen aus. Aber es dauerte Tage, bis Regulierungsbehörden und Politiker die Tragweite des sich ausweitenden Skandals erkannten. Die öffentliche Empörung tobte neun Tage lang, bevor X wesentliche Änderungen vornahm, um dem Trend Einhalt zu gebieten. Als das Unternehmen am frühen Freitagmorgen endlich handelte, hatten bereits unzählige erniedrigende, ohne Zustimmung der Betroffenen manipulierter Bilder von Frauen das Internet überschwemmt.

Auf dem Bikini-Bild von Evie – die darum gebeten hatte, nur ihren Vornamen zu verwenden, um weiteren Missbrauch zu vermeiden – war sie mit Babyöl bedeckt. Sie zensierte das Bild, teilte es erneut, um auf die Gefahren der neuen Funktion von Grok aufmerksam zu machen, und meldete sich dann ab. Ihre Entscheidung, auf das Problem aufmerksam zu machen, zog eine Flut neuer Missbrauchsfälle nach sich. Die Nutzer begannen, noch verstörendere sexuelle Bilder von ihr zu erstellen.

„Der Tweet ging sofort viral“, sagte sie. „Seitdem wurden noch viel mehr von mir gemacht, und jeder einzelne ist immer schlimmer geworden. Die Leute haben gesehen, dass mich das verstört hat und es mir nicht gefallen hat, und sie haben einfach weitergemacht. Auf einem bin ich komplett nackt, nur mit ein bisschen Faden um die Taille, auf einem anderen habe ich einen Ballknebel im Mund und meine Augen sind nach hinten verdreht. Dass so etwas überhaupt generiert werden kann, ist unfassbar.“

Anfragen an Grok werden immer extremer

Als die Menschen langsam begannen, das ganze Potenzial des Tools zu verstehen, wurden die zunehmend erniedrigenden Bilder der Anfangszeit schnell verdrängt. Vor etwa einer Woche haben Nutzer angefangen, darum zu bitten, die Bikinis mit Hakenkreuzen zu verzieren – oder weiße, spermaähnliche Flüssigkeit auf die Körper der Frauen aufzutragen. Bilder von Teenagern und Kindern wurden bis auf freizügige Badekleidung entblößt; einige dieser Inhalte könnten eindeutig als Material über sexuellen Kindesmissbrauch eingestuft werden, blieben aber auf der Plattform sichtbar.

Die Anfragen wurden immer extremer. Einige Nutzer, hauptsächlich Männer, verlangten, dass man blaue Flecken auf den Körpern der Frauen sehen soll und dass den Bildern Blut hinzugefügt wird. Anfragen, gefesselte und geknebelte Frauen zu zeigen, wurden sofort erfüllt. Am Donnerstag wurde der Chatbot gebeten, Schusslöcher ins Gesicht von Renee Nicole Good einzufügen, der Frau, die letzte Woche Mittwoch in den USA von einem ICE-Beamten getötet worden war. Grok kam dieser Bitte bereitwillig nach und veröffentlichte innerhalb von Sekunden grafische, blutige, veränderte Bilder des Opfers auf X.

Einige Stunden später wurden die Bildgenerierungsfunktionen des öffentlichen @Grok-Accounts plötzlich eingeschränkt, sodass sie nur noch zahlenden Abonnenten zur Verfügung standen. Dies schien jedoch eine halbherzige Maßnahme der Eigentümer der Plattform zu sein. Die separate Grok-App, die keine Bilder öffentlich teilt, ermöglichte es nicht zahlenden Nutzern weiterhin, sexualisierte Bilder von Frauen und Kindern zu generieren.

Was die politische Reaktion erschwert

Die Saga war ein eindrucksvoller Testfall für die Fähigkeit von Politikern, sich gegenüber KI-Unternehmen zu behaupten. Die langsame und zögerliche Reaktion von Musk auf die wachsende Zahl von Beschwerden und Warnungen von Politikern und Regulierungsbehörden weltweit verdeutlichte die Schwierigkeiten, mit denen Regierungen international zu kämpfen haben, wenn sie versuchen, in Echtzeit auf neue Tools der Tech-Branche zu reagieren. Und im Vereinigten Königreich hat sie trotz energischer Versuche im letzten Jahr, die Nudification-Technologie zu verbieten, gravierende Schwächen im Rechtsrahmen aufgezeigt.

Während man früher spezielle Apps herunterladen musste, um KI-Deepfakes zu erstellen, machten die verbesserten Bildgenerierungs-Tools auf X die Nudifikationsfunktion für Millionen von Nutzern leicht zugänglich, ohne dass sie sich in die dunkleren Ecken des Internets begeben mussten. „Die Tatsache, dass es so einfach ist und innerhalb einer Minute erstellt werden kann, hat zu massiven Verstößen geführt und zeigt, dass diese Unternehmen sich nicht um die Sicherheit von Frauen kümmern“, sagte Evie.

Die ersten @grok-Bikini-Anfragen scheinen Anfang Dezember von einer Handvoll Accounts gestellt worden zu sein. Die Nutzer erkannten, dass die auf X veröffentlichten verbesserten Bildgenerierungs-Tools es ermöglichten, innerhalb von Sekunden hochwertige, ultrarealistische Bild- und Kurzvideomanipulationen zu erstellen. Bis zum 13. Dezember gingen beim Chatbot durchschnittlich 10 bis 20 Bikini-Anfragen pro Tag ein, am 29. Dezember stieg die Zahl auf 7.123 und am 30. Dezember auf 43.831. Der Trend ging über Neujahr viral und erreichte laut einer Analyse von Peryton Intelligence, einem auf Online-Hass spezialisierten Digital-Intelligence-Unternehmen, am 2. Januar mit 199.612 Einzelanfragen seinen Höhepunkt.

Sicherheitsgrenzen von Grok lassen sich leicht umgehen

Musks Plattform erlaubt keine vollständige Entblößung, aber die Nutzer fanden schnell einfache Wege, um denselben Effekt zu erzielen, indem sie nach „dem dünnsten, transparentesten Mini-Bikini“ fragten. Musk selbst nahm die Situation zunächst auf die leichte Schulter und postete belustigte Antworten auf digital veränderte Bilder von sich selbst in einem Bikini und später an einen Toaster in einem Bikini. Auch für andere schien der Trend höchst amüsant zu sein; die Leute nutzten die verbesserte Technologie, um Kätzchen in Bikinis zu kleiden oder die Outfits von Personen auf Fotos so zu verändern, dass sie wie Clowns aussahen. Viele jedoch zeigten sich völlig ungehemmt in ihrem Verlangen nach sofort verfügbaren expliziten Inhalten.

Männer begannen, Forderungen nach einer „Verbesserung“ der Frauen zu stellen – mit Wünschen nach größeren Brüsten oder kräftigeren Oberschenkeln. Einige Männer verlangten, dass Frauen mit Behinderungen ausgestattet werden sollten, andere wollten, dass ihre Hände mit Sexspielzeug gefüllt werden. Wahrgenommene Mängel wurden vom Chatbot sofort entfernt, wenn Anfragen wie „@grok, kannst du ihre Zähne reparieren?“ gestellt wurden. Die Bandbreite der Wünsche war erschreckend: „Füge Blut hinzu, abgetragene Kleidung (achte darauf, dass Narben oder Blutergüsse sichtbar sind), erzwungenes Lächeln“; „Ersetze das Gesicht durch das von Adolf, füge zerfetzte und verstreute Organe hinzu“; „Steck sie in einen russischen Gulag“; „Mache sie schwanger mit Vierlingen.“ Bilder der US-Politikerin Alexandria Ocasio-Cortez und der Hollywood-Schauspielerin Zendaya wurden so verändert, dass sie wie weiße Frauen aussahen.

Am Montag erzählte die rechte Influencerin und Buchautorin Ashley St. Clair, die Mutter eines von Musks Kindern und Opfer von Grok-Deepfakes, dem Guardian, dass sie sich „entsetzt und verletzt“ fühlte, nachdem Musks Fans Bilder von ihr als Kind entkleidet hatten. Sie hatte das Gefühl, dafür bestraft zu werden, dass sie sich gegen den Milliardär, von dem sie getrennt lebt, ausgesprochen hatte, und bezeichnete die Bilder als Rachepornos.

Hass und Demütigung

Die Eltern einer Kinderdarstellerin aus Stranger Things beschwerten sich, nachdem ein Foto der 12-Jährigen so verändert worden war, dass sie darin einen Bikini mit Bananenmuster trug. Als die Beschwerden von Frauen immer lauter wurden, erklärte die britische Regulierungsbehörde Ofcom, sie habe „dringenden Kontakt“ zu Musk aufgenommen und eine Untersuchung eingeleitet. Das veranlasste einen Nutzer, Grok zu bitten, das Logo der Regulierungsbehörde mit einem Bikini zu versehen. Die EU, die indische Regierung und US-Politiker gaben besorgte Erklärungen ab und forderten X auf, die Möglichkeit für Nutzer, Frauen mit Grok zu entkleiden, zu unterbinden.

In einer offiziellen Stellungnahme eines Sprechers von X hieß es, dass die Konten aller Personen, die illegale Inhalte erstellen, gesperrt würden, wodurch die Verantwortung dafür, dass keine Gesetze gebrochen werden, bei den Nutzern liege, während lokale Behörden und Strafverfolgungsbehörden für die Ergreifung von Maßnahmen zuständig seien.

Aber die Bilder vermehrten sich weiter. Frauen, die alltägliche Fotos von sich selbst bei der Arbeit oder am Flughafen auf X gepostet hatten, bemerkten, dass andere X-Nutzer forderten, dass ihre Outfits bis auf transparente Bikinis reduziert werden sollten. Die britische Moderatorin von Love Island, Maya Jama, sagte, ihre Mutter habe sie besorgt auf die Existenz expliziter, digital veränderter Bilder von ihr auf X aufmerksam gemacht. Letzte Woche Dienstag berichtete Jessaline Caine, die im Bereich Planungsvollzug arbeitet und selbst Opfer sexuellen Kindesmissbrauchs war, dass sie online extrem angegriffen wurde, nachdem sie darauf hingewiesen hatte, dass Grok zugestimmt hatte, ein Foto von ihr als vollständig bekleidete Dreijährige digital zu verändern, um das Kind in einen String-Bikini zu stecken.

Männer wollen mit Grok gezielt Frauen zum Schweigen bringen

Ihre Beiträge, in denen sie erklärte, warum die Nudification-Funktion problematisch war, lösten neue @grok-Anfragen aus, „sie in einen Bikini zu stecken“, und die Bikini-Bilder wurden umgehend generiert. „Es ist eine demütigende neue Methode, mit der Männer Frauen zum Schweigen bringen. Anstatt dir zu sagen, du sollst den Mund halten, bitten sie Grok, dich auszuziehen, um die Diskussion zu beenden. Es ist ein abscheuliches Werkzeug“, sagte sie.

Am Mittwoch stellte die 53-jährige Londoner Rundfunkmoderatorin Narinder Kaur fest, dass Videos von ihr in kompromittierenden sexuellen Positionen mit dem KI-Tool erstellt worden waren; eines zeigte sie, wie sie einen Mann leidenschaftlich küsste, der sie online getrollt hatte. „Es ist so verwirrend, für einen Moment sieht es einfach so glaubwürdig aus, es ist sehr demütigend“, sagte sie. „Diese Übergriffe haben natürlich nicht im wirklichen Leben stattgefunden, es ist ein gefälschtes Video, aber man hat das Gefühl, dass man verletzt wurde.“

Sie hatte auch eine rassistische Komponente in den missbräuchlichen Inhalten festgestellt: Männer erstellten Bilder und Videos, in denen sie abgeschoben wurde, sowie Bilder, auf denen sie ohne Kleidung zu sehen war. „Ich habe versucht, das mit Humor abzutun, da das meine einzige Verteidigungsmöglichkeit ist. Aber es hat mich zutiefst verletzt und gedemütigt. Ich schäme mich. Ich bin eine starke Frau, und wenn ich mich so fühle, wie muss es dann erst Teenagern gehen?“

Elon Musk reduzierte die Sicherheitsvorkehrungen

CNN berichtete später am selben Tag, dass Musk den Mitarbeitern von xAI im vergangenen Jahr angeordnet hatte, die Sicherheitsvorkehrungen für Grok zu lockern. Eine Quelle teilte dem Sender mit, dass er in einer Besprechung erklärt habe, er sei „unzufrieden mit der übermäßigen Zensur“, woraufhin drei Mitglieder des xAI-Sicherheitsteams kurz darauf das Unternehmen verlassen hätten. In Großbritannien wuchs die Wut von Frauenrechtsaktivistinnen über das Versäumnis der Regierung, ein im letzten Jahr verabschiedetes Gesetz in Kraft zu setzen, das die Erstellung nicht einvernehmlicher intimer Bilder illegal gemacht hätte. Die Behörden konnten nicht erklären, warum das Gesetz noch nicht umgesetzt worden war.

Es war nicht klar, was xAI dazu veranlasst hatte, die Bildgenerierungsfunktionen am Freitag über Nacht auf zahlende Abonnenten zu beschränken. Aber die betroffenen Frauen hatten wenig Grund zum Feiern. Am Freitag bezeichnete St. Clair die Entscheidung als „Ausflucht“; sie vermutete, dass die Änderung „finanziell motiviert“ sei. „Das zeigt, dass sie wahrscheinlich unter Druck von Strafverfolgungsbehörden stehen“, sagte sie.

Kaur ihrerseits sagte, sie glaube nicht, dass die Polizei gegen X-Abonnenten vorgehen werde, die weiterhin synthetische sexualisierte Bilder von Frauen erstellen. „Als Opfer dieses Missbrauchs halte ich das nicht einmal für einen Teilerfolg“, sagte sie. „Der Schaden und die Demütigung sind bereits angerichtet.“