Die Zahl mit Künstlicher Intelligenz erstellter Kindesmissbrauchsvideos im Internet ist so hoch wie nie. Das stellt eine Erhebung der gemeinnützigen britischen Organisation Internet Watch Foundation (IWF) fest. Im Jahr 2025 fanden die Analysten der Organisation mehr als 8000 Bilder und Videos, die als realistisch dargestellter Kindesmissbrauch eingestuft wurden. Massiv zugenommen haben vor allem Videos. Waren es 2024 noch dreizehn KI-generierte Videos, stieg die Zahl im Jahr 2025 auf 3443.
Deren Inhalte haben inzwischen einen derart hohen Grad an Fotorealismus erlangt, dass selbst Experten diese Videos kaum von echtem Bildmaterial unterscheiden können. Zwar sei der Anteil von KI-generiertem Material unter der riesigen Menge kinderpornografischer Inhalte noch vergleichsweise gering, doch habe die Brutalität der Inhalte zugenommen: Etwa 65 Prozent der identifizierten Videos stuft die Studie in die „Kategorie A“ ein, unter welcher die schlimmsten Fälle aufgeführt werden (Kindesmissbrauch, Sadismus, Sodomie).
Neue KI-Tools sind leichter verfügbar und leichter zu bedienen
Die illegalen Inhalte sind durch neue Techniken wie die sogenannte „Low-Rank Adaptation“ leicht zu erstellen. Sie ermögliche es, bestehende KI-Modelle mit nur 20 bis 30 Bildern einer Person innerhalb von 15 Minuten auf herkömmlichen Laptops zu „trainieren“, was bedeutet: die Bilder eines realen Menschen der KI-Produktion einzuverleiben. Die Studie beschreibt Täter, die sich in Dark-Web-Foren darüber austauschen, wie sie mit versteckter Kamera Aufnahmen von Kinder machen, um diese mithilfe von KI-Tools in realistische Missbrauchsvideos umzuwandeln.
Die Täter nutzten dabei oft Open-Source-Modelle, da diese lokal betrieben werden können und im Gegensatz zu kommerziellen Cloud-Diensten keine Sicherheitsfilter oder Rückverfolgbarkeitsmechanismen besitzen. Gefahrenquellen sind zudem „Nudify-Apps“. Mit diesen „entkleiden“ Täter Kinder, stellen sie digitalisiert nackt dar, um sie zu demütigen oder zu erpressen (Sextortion). KI-Chatbots, die Sexgespräche führen, fanden die Analysten der Internet Watch Foundation ebenfalls. Mit sogenannten „KI-Kindern“ können Täter ihre Missbrauchsfantasien ausleben.
Mittels KI werden bereits vorhandene Inhalte verändert
Der Konsum dieser Inhalte trage zur Normalisierung von Gewalt bei und erhöhe das Risiko für reale Übergriffe, schreibt die Internet Watch Foundation. So gaben in einer Studie 37 Prozent der Nutzer an, nach dem Betrachten illegaler Inhalte realen Kontakt zu Kindern gesucht zu haben. Opfer realen Kindesmissbrauchs würden ein weiteres Mal dadurch missbraucht, dass die Täter ihre Bilder ins Netz stellen und für neue, brutalere Missbrauchsszenarien verwenden. Die Gewalt ist stark geschlechtsspezifisch: 97 Prozent der illegalen KI-Bilder zeigen Mädchen.
Die schiere Menge der mit Künstlicher Intelligenz erstellten Kinderpornografie drohe die Strafverfolger zu überfordern, so die Studie, da die Unterscheidung zwischen echtem und KI-Material zeitaufwendig ist und die Rettung echter Opfer verzögern könne. Nicht weniger aufwendig ist es, der sogenannte „Deepfake-Verteidigung“ entgegenzutreten, die darin besteht, dass Angeklagte vor Gericht behaupten, echtes Beweismaterial sei KI-generiert. Angesichts dieser Krise fordert die britische Organisation weltweit vereinheitlichte Gesetze, die die Plattformen in die Pflicht nehmen, wie Kerry Smith, der Vorstandschef der IWF, sagt: „Die Sicherheit von Kindern darf nicht erst im Nachhinein berücksichtigt werden.“
Source: faz.net