Kriminalität durch KI: Wie die EU gegen Deepfakes vorgehen will

Eine Frau liegt auf einem Sofa und guckt auf ein Smartphone.

Stand: 13.03.2026 • 14:54 Uhr

Künstlich generierte Bilder einer Person – sogenannte Deepfakes – werden immer häufiger für Betrugsmaschen genutzt. Die EU will dagegen vorgehen. Ein möglicher Weg: das Urheberrecht.

Wer ein E-Mail-Postfach hat, hat sicherlich mindestens einmal eine Mail eines verschollenen Cousins aus den Golfstaaten erhalten, der gerne Millionen Dollar überweisen möchte. Solche Phishing-Mails werden von den allermeisten leicht entlarvt.

Aber die Zeiten änderten sich, sagt Els Bruggemann von Euroconsumers, einem führender Verbraucherverband, dem fünf nationale Verbraucherorganisationen angehören: „Früher hätten wir beispielsweise gesagt: Schauen Sie sich die E-Mail an. Wenn Sie Rechtschreibfehler entdecken, ist sie verdächtig. Aber heutzutage kann man mit ChatGPT auch Phishing-E-Mails ohne jegliche Rechtschreibfehler versenden.“

Bericht: Jeder fünfte Erwachsene wurde schon Opfer

Selbst Profis wie Bruggeman haben inzwischen Schwierigkeiten. Einem Bericht der Global Anti-Scam Alliance zufolge wurde jeder fünfte Erwachsene in Deutschland schon Opfer von Betrügern. Der durchschnittliche Schaden beläuft sich auf 820 Euro.

Besonders hinterlistig sind sogenannte Deepfakes. Am Telefon meldet sich auf einmal die Tochter, die in Schwierigkeiten steckt und nach Geld fragt. Statt der Tochter handelt es sich aber in Wahrheit um eine durch KI geklonte Stimme.

Solche Deepfakes sind noch kein Massenphänomen, sagt Verbraucherschützerin Bruggeman. Aber KI gibt den Betrügern gefährliche Werkzeuge in die Hand: „Es liegt nicht mehr allein in der Verantwortung der Verbraucher. Wir können nicht die ganze Last auf ihre Schultern legen.“

Trotz KI-Gesetz: Reform notwendig

Es gibt bereits ein EU-Gesetz, den AI-Act, der Transparenzvorschriften zu Deepfakes macht. Aber wie im Strafrecht gilt: Wer gegen ein Gesetz verstoßen möchte, tut das auch. Der CDU-Digitalpolitiker Axel Voss ist nicht prinzipiell gegen Künstliche Intelligenz, die Bilder, Videos und Stimmen sammelt und neues Material schafft.

Wenn es „offensichtlich Spaß-Deepfakes sind“, und das auch erkennbar sei, dann findet Voss, gehöre das auch zu einer gewissen Kultur dazu. „Aber zur Zerstörung einer Demokratie sind diese hochgefährlich, weil man natürlich Politikern oder auch anderen Entscheidern Worte in den Mund legen kann, die sie nie getätigt haben.“

Kürzlich, erzählte Frankreichs Präsident Emmanuel Macron, habe ihn ein afrikanischer Staatschef angerufen, der ihn fragte, was in Paris denn los sei. Auf Instagram habe er ein Video eines Nachrichtensenders mit einer Journalistin vor dem Eiffelturm gesehen, die von einem Staatsstreich berichtete. 13 Millionen Aufrufe. All das ein KI-generierter Fake und breit in der Öffentlichkeit besprochen.

KI als Betrugsmasche – dänischer Vorschlag als Lösung?

Aber KI-Technologie, die im Privaten für Betrugsmaschen eingesetzt wird – diesem Phänomen haben sich europäische Entscheidungsträger noch nicht so ausführlich gewidmet. Höchstens in Fragen des Urheberrechts, sagt der SPD-Europaabgeordnete René Repasi: „Wir haben also an die Erzeuger von kreativen Werken gedacht und weniger an konkret betroffene Personen, Einzelpersonen, ohne dass es da irgendein ökonomisches Interesse gibt.“

Doch dabei wird die betroffene Einzelperson außer Acht gelassen, sagt Repasi: „Und deswegen müssten wir das angehen, dass wir hier jedem Bürger, jeder Bürgerin ein Recht am eigenen Bild und an eigener Stimme geben, das zu verteidigen ist.“

Repasi spielt dabei auf einen Vorschlag der dänischen Regierung an. Die möchte ein Copyright für Bürgerinnen und Bürger einführen. Plattformen sollen nur dann das Bild und die Stimme einer Person verwenden dürfen, wenn sie dem zustimmen.

Bis auf EU-Ebene das dänische Vorbild Schule macht, rät Verbraucherschützerin Bruggeman: „Wenn Sie einen Anruf von jemandem erhalten, dem Sie vertrauen, sei es Ihre Mutter, Ihr Sohn oder Ihre Tochter, der Sie um Geld bittet, raten wir Verbrauchern auch, sich auf ein Sicherheitswort zu einigen.“ Dies sei gut, „um sicherzugehen, dass Sie tatsächlich mit der richtigen Person sprechen. Es ist so weit gekommen, dass wir diesen Rat geben müssen.“

Source: tagesschau.de