„Sie wahrnehmen sich effektiv an“: KI-Experten verdeutlichen, wie politische Deepfakes klappen

Content-Creator erstellen nicht nur gefälschte Bilder und Videos von Prominenten, sie erfinden auch „ganz gewöhnliche“ Personen und setzen diese in militärischen Kontexten ein. KI-Forschern zufolge lässt sich damit Geld verdienen und effektiv Propaganda betreiben. Einige dieser Online-Avatare sind sexualisierte Darstellungen von Frauen in Tarnkleidung, die ein großes Publikum erreichen und dazu beigetragen haben, ein idealisiertes Bild von Politikern wie Donald Trump zu zeichnen. Das funktioniere selbst dann, wenn die Betrachter wissen, dass die Inhalte nicht real sind, so die Experten.

„Viele Menschen empfinden, dass sich diese Bilder, Videos und die darin enthaltenen Geschichten wahr anfühlen“, sagt Daniel Schiff, Juniorprofessor für Technology Policy an der US-amerikanischen Purdue University und Co-Direktor des dortigen Governance and Responsible AI Lab (kurz Grail). Eine Datenbank des Grail verzeichnet eine dramatische Zunahme politischer Deepfakes in den vergangenen Jahren.

Seit Anfang 2025 hat die Organisation über 1.000 englischsprachige Social-Media-Beiträge katalogisiert, die gefälschte Bilder oder Videos von prominenten Politikern und politisch relevanten gesellschaftlichen Themen und Ereignissen enthalten. In den acht Jahren davor verzeichnete die Organisation insgesamt 1.344 solcher Vorfälle. Der Anstieg sei natürlich größtenteils auf die technologischen Fortschritte im Bereich der generativen KI zurückzuführen, so Schiff, die es ermöglicht, sehr schnell solche Inhalte zu erstellen.

Placeholder image-2

„Es ist kinderleicht geworden, ziemlich realistisch aussehende Szenen zu generieren und echte Personen einzufügen“, sagt Sam Gregory, Geschäftsführer von Witness, einer Organisation, die sich für Menschenrechte einsetzt und gegen irreführende KI kämpft. Die Fake-Avatare – die gewöhnliche Menschen imitieren – sind noch einmal eine andere Nummer.

Im Dezember 2025 ging ein Instagram-Account für Jessica Foster online, eine KI-generierte blonde Frau, die oft eine US-Militäruniform trägt. Dort teilte sie Fotos von sich auf dem Stockbett in einer Kaserne, auf einem Bürostuhl mit den Füßen auf dem Schreibtisch und in High Heels neben Trump auf dem Rollfeld.

Die Creator hatten dieses Schuhwerk bewusst ausgewählt und stellten Fosters Füße prominent in den Vordergrund. Bilder dieser fiktiven Person erreichten über eine Million Follower auf Instagram. Diese Beiträge wurden anschließend mit einem OnlyFans-Account verlinkt, einer Plattform, die hauptsächlich für pornografische Inhalte genutzt wird. Über den Account konnten angebliche Fußfotos von Foster erworben werden. Der Instagram-Account wurde kürzlich gelöscht.

Die Leute suchen nicht unbedingt nach der Realität, sondern nach Dingen, die ihre Überzeugungen bestätigen

Sam Gregory, Technologieexperte und Menschenrechtsaktivist ,

„Viele KI-Anwendungen zielen im Grunde darauf ab, Klicks und Geld zu generieren oder Nutzer auf lukrativere Seiten zu locken“, so Gregory. Solche Tools können aber auch politischen Zwecken dienen. Während des Iran-Krieges tauchten laut einem BBC-Bericht in den sozialen Medien unzählige Videos mit gefälschten iranischen Soldatinnen auf, die riefen: „Habibi, komm in den Iran!“. Ein verräterisches Indiz war, dass Frauen im Iran nicht an Kampfeinsätzen teilnehmen dürfen.

Außerdem wurde eine KI-generierte Polizistin entwickelt, die auf TikTok über 26.000 Follower hat. In einem Video lächelt sie zu dem Text: „Präsident Trump hat über 2,5 Millionen Menschen aus dem Land deportiert. Habt ihr dafür gestimmt? Ja.“ Das Video erhielt über 200 Likes und 23 Kommentare, darunter: „Absolut ja.“

Im Wahlkampf 2024 teilte Trump außerdem KI-generierte Bilder, die Taylor-Swift-Fans zeigten, die ihn unterstützten. Seit 2024 haben Trump und das Weiße Haus laut der Grail-Datenbank mindestens 18 Deepfakes in sozialen Medien geteilt.

Placeholder image-1

Das Problem beschränkt sich jedoch nicht auf die Rechte. Auch der demokratische kalifornische Gouverneur Gavin Newsom, der laut Prognosen vieler 2028 für das Präsidentenamt kandidieren wird, teilt Deepfakes, die auf Trump abzielen. Eines davon zeigt den Präsidenten, wie er ein Hologramm von Jeffrey Epstein anlächelt.

KI-Forschern zufolge können politische Deepfakes selbst dann noch überzeugend wirken, wenn die Nutzer wissen, dass sie nicht echt sind.

„Foster läuft in High Heels und einer Militäruniform herum, ihr Abzeichen ist völlig falsch. Es gibt keinen Grund, warum sie mit Präsident Trump und Nicolás Maduro unterwegs sein sollte“, sagt Gregory. „Sobald man genauer darüber nachdenkt, ergibt das alles wenig Sinn und hält einer kritischen Prüfung nicht stand. Aber die Leute suchen nicht unbedingt nach der Realität, sondern nach Dingen, die ihre Überzeugungen bestätigen.“

Die Deepfakes verringerten die Wahrscheinlichkeit, dass Menschen diese Überzeugungen überdenken, sagt Valerie Wirtschafter, Mitarbeiterin der Brookings Institution im Bereich Künstliche Intelligenz und neue Technologien. Die Deepfakes seien „nur eine weitere Ebene in diesem Prozess, der das, was Menschen für wahr halten, eher bestärkt als hinterfragt“, so Wirtschafter.

Eine Art Trollfarm, nur ohne Menschen

Valeria Wirtschafter, AI-Expertin der Brookings Institution

Die Wissenschaftler befürchten, dass sich die Situation noch verschlimmern wird. Die Technologie, mit der Foster erstellt wurde, könnte laut einer kürzlich in Science veröffentlichten Studie auch zur Erzeugung sogenannter „KI-Schwärme“ genutzt werden. Diese wären in der Lage, „autonom zu agieren, Gemeinschaften zu infiltrieren und effizient Konsens herzustellen“.

Wirtschafter bezeichnet es als „eine Art Trollfarm, nur ohne Menschen“.

Menschen könnten aber weiterhin sehr wohl verhindern, dass böswillige Akteure KI zur Destabilisierung der Gesellschaft einsetzen, so die Forscher. Die Coalition for Content Provenance and Authenticity hat „eine technische Norm für Herausgeber, Urheber und Konsumenten entwickelt, um Herkunft und Bearbeitung digitaler Inhalte nachzuweisen“.

Diese sogenannten Content Credentials lassen sich „in Fotos, die mit einer Kamera aufgenommen werden, oder in Inhalte, die mit einem KI-Tool erstellt oder bearbeitet und anschließend auf einer Plattform verbreitet werden, einbetten. Es handelt sich also um kryptografisch signierte Metadaten“, so Gregory. Technologieunternehmen müssten diese Informationen dann nutzen, um zu kennzeichnen, ob die Inhalte KI enthalten, erklärt Gregory.

Instagram kennzeichnete nur 15 von 105 gefälschten Bildern

LinkedIn, Pinterest, TikTok und YouTube haben sich alle verpflichtet, KI-generierte Inhalte zu kennzeichnen. Ein Ermittler des Medienportals The Indicator veröffentlichte kürzlich 200 KI-generierte Bilder und Videos auf diesen Plattformen, um zu überprüfen, ob sie tatsächlich gekennzeichnet wurden. Er stellte fest, dass selbst die sorgfältigsten Plattformen – LinkedIn und Pinterest – nur 67 Prozent dieser Inhalte kennzeichneten. Instagram kennzeichnete lediglich 15 von 105 gefälschten Bildern.

Der Aufsichtsrat von Meta äußerte sich kürzlich besorgt über Berichte, denen zufolge das Unternehmen die Normen „uneinheitlich anwende“ und „selbst bei Inhalten, die von seinen eigenen KI-Tools generiert werden, nur ein Teil dieser Ergebnisse korrekt gekennzeichnet werde“. Gregory erklärte, die uneinheitliche Kennzeichnung sei auf „fehlenden politischen Willen in den Führungsetagen“ der großen Technologiekonzerne zurückzuführen.

„Wir haben weiterhin die Fähigkeit, zwischen realen und synthetischen Inhalten unterscheiden zu können. Wir können uns das erhalten“, sagte er. „Aber wir müssen schnell handeln.“