Nutzer konnten mit der KI „Grok“ sexualisierte Bilder von Minderjährigen erstellen lassen. Die Sicherheitslücke bei xAI gibt es auch bei anderen. „Child sexual abuse material“ wird zum Training von KIs verwendet, was das Problem mitbedingt
Da guckt er blöd aus der Wäsche – Elon Musk
Collage: der Freitag, Material: KI-Bilder, Getty
Elon Musks Chatbot Grok veröffentlichte Anfang Januar einen Beitrag, wonach Lücken in den Sicherheitsvorkehrungen dazu geführt hätten, dass es „Bilder von Minderjährigen in knapper Bekleidung“ auf der Social-Media-Plattform X generiert habe. Der Chatbot, ein Produkt von Musks Unternehmen xAI, hat die ganze Woche über als Reaktion auf Prompts von Nutzern eine Welle sexualisierter Bilder generiert.
Von Nutzern auf X geteilte Screenshots zeigten, dass der Tab „Öffentliche Medien“ von Grok mit solchen Bildern gefüllt war. xAI erklärte, dass es daran arbeite, seine Systeme zu verbessern, um künftige Vorfälle zu verhindern.
„Es gibt vereinzelte Fälle, in denen Nutzer KI-Bilder angefordert und erhalten haben, die Minderjährige in knapper Kleidung zeigen“, erklärte Grok in einem Beitrag auf X als Antwort auf einen Nutzer. „xAI verfügt über Sicherheitsvorkehrungen, aber es werden kontinuierlich Verbesserungen vorgenommen, um solche Anfragen vollständig zu blockieren.“
Keine Sicherheitsvorkehrungen
„Wie bereits erwähnt, haben wir Lücken in den Sicherheitsvorkehrungen festgestellt und beheben diese derzeit mit Hochdruck – CSAM ist illegal und verboten“, schrieb xAI auf dem @Grok-Account auf X. CSAM steht als Abkürzung für „child sexual abuse material“ und bezieht sich auf Material über sexualisierte Gewalt an Kindern.
Viele Nutzer auf X haben Grok in den vergangenen Tagen dazu aufgefordert, sexualisierte, nicht einvernehmliche, mit Künstlicher Intelligenz veränderte Versionen von Bildern zu erstellen, wobei in einigen Fällen den dargestellten Personen ohne deren Zustimmung ihre Kleidung auf den Bildern entfernt wurde. Musk hat am Donnerstag ein KI-Foto von sich selbst in einem Bikini gepostet, versehen mit Lachtränen-Emoji, um auf diesen Trend anzuspielen.
Die von Grok generierten sexualisierten Bilder schienen keine Sicherheitsvorkehrungen zu haben, sodass Minderjährige in Groks Beiträgen von Personen, in der Regel Frauen, mit spärlicher Bekleidung zu sehen waren. In einer Antwort an einen Nutzer auf X am Donnerstag erklärte Grok, dass die meisten Fälle durch fortschrittliche Filter und Überwachung verhindert werden könnten, obwohl „kein System zu 100 Prozent fehlerfrei ist“, und fügte hinzu, dass xAI Verbesserungen priorisiere und die von Nutzern geteilten Details überprüfe.
CSAM-Bilder werden für KI-Trainings genutzt
Als xAI per E-Mail um eine Stellungnahme gebeten wurde, antwortete das Unternehmen mit der Nachricht: „Legacy Media Lies“ (deutsch: Traditionelle Medien lügen).
Das Problem, dass KI zur Erstellung von Material über sexuellen Kindesmissbrauch genutzt wird, ist in der Branche seit Langem bekannt. Eine Studie der Stanford University aus dem Jahr 2023 ergab, dass ein Datensatz, der zum Trainieren einer Reihe beliebter KI-Bildgenerierungs-Tools verwendet wurde, über 1.000 CSAM-Bilder enthielt. Experten sagen, dass das Trainieren von KI mit Bildern von Kindesmissbrauch es KI-Modellen ermöglichen kann, neue Bilder von Kindern, die missbraucht werden, zu generieren.
Grok hat auch in der Vergangenheit versäumt, seine Sicherheitsvorkehrungen einzuhalten, und Fehlinformationen veröffentlicht. Im Mai letzten Jahres begann Grok, Beiträge über die rechtsextreme Verschwörungstheorie des „weißen Völkermords“ in Südafrika zu veröffentlichen. xAI entschuldigte sich im Juli, nachdem Grok begonnen hatte, Vergewaltigungsfantasien und antisemitisches Material zu veröffentlichen, sich selbst als „MechaHitler“ zu bezeichnen und die Nazi-Ideologie zu preisen. Dennoch sicherte sich das Unternehmen eine Woche nach den Vorfällen einen Auftrag des US-Verteidigungsministeriums im Wert von fast 200 Millionen Dollar. (mit Agenturen)