Gefährliche Deepfakes: Mit KI kann jeder zum Hacker werden

Welche mit Künstlicher Intelligenz (KI) erstellten Angriffe auf Firmen einprasseln können, zeigt der Fall eines Dax-Unternehmens, den die Berater Francois Heynike und Jan Stoelting auf einer Informationsveranstaltung schilderten, ohne dessen Namen zu nennen. In dem Fall ging auf der Video-App Tiktok ein gefälschter Minifilm viral, der brennende Fabriken und überforderte Rettungskräfte zeigte.

Der innerhalb von wenigen Stunden hunderttausendfach geteilte Streifen war wohl in der Absicht erstellt worden, das Vertrauen in die öffentliche Sicherheit in Deutschland zu untergraben. Das Unternehmen, dessen Produktionsanlagen angeblich brannten, war also gar nicht das eigentliche Ziel der Attacke, sondern Mittel zum Zweck. Trotzdem war die Gefahr eines Reputationsschadens groß. Dem Videokanal Tiktok hatte das Unternehmen bisher wenig Beachtung geschenkt. Das dürfte sich schnell geändert haben.

Angriffe auf Unternehmen mit KI werden wohl zunehmen

Heynike und Stoelting von der Prüfungs- und Beratungsgesellschaft KPMG gehören zu den Fachleuten, die am Freitag auf Einladung des Wirtschaftsprüferinstituts IDW für eine Onlineveranstaltung zusammengeschaltet wurden, um rund 1400 eingewählte Prüferinnen und Prüfer über die Gefahren KI-gestützter Cyberattacken auf Unternehmen aufzuklären.

Gefährliche Kampagnen dieser Art dürften rasant zunehmen, denn inzwischen können selbst technische Laien mithilfe von billigen und marktgängigen digitalen Werkzeugen gefälschte Dokumente, Tonaufnahmen oder Videos erstellen und über soziale Netzwerke in kürzester Zeit massenhaft verbreiten. „Fakes sind kein Randphänomen mehr“, sagte Ingmar Rega, Vorsitzer des IDW-Vorstands. „Desinformationen können im Extremfall Börsenkurse einbrechen lassen und Unternehmen in Krisen stürzen“, warnte der Wirtschaftsprüfer und Steuerberater. Unternehmen müssten daher lernen, Fakes zu erkennen und auf diese zu reagieren. Bilanzprüfer müssten die Folgen für die Geschäftszahlen und den jährlichen Lagebericht von Unternehmen im Auge behalten.

Auch Robert Kahr vom Cybercrime Kompetenzzentrum vom Landeskriminalamt Nordrhein-Westfalen und sein 30-köpfiges Team haben das Thema auf dem Radar. Laut Kahr werden uralte Betrugsmaschen wie Heiratsschwindel durch KI wieder aktuell, weil es so leicht geworden ist, täuschend echte Inhalte herzustellen. Betrüger können sogar in die Rolle von Prominenten schlüpfen. Eine Frau aus Frankreich überwies 830.000 Euro im falschen Glauben, damit dem angeblich schwer erkrankten Schauspieler Brad Pitt zu helfen und eine Beziehung mit ihm aufbauen zu können.

In Asien lockte eine Bande massenhaft junge Koreaner nach Kambodscha, wo diese mit Gewalt gezwungen wurden, systematisch ihre Landsleute über das Internet zu betrügen. Die südkoreanische Regierung reagierte darauf mit einer Ausreisesperre nach Kambodscha. Neben der Brutalität zeigt das Beispiel, dass Banden keine versierten Hacker mehr einspannen müssen, um ihre digitalen Betrugskampagnen durchzuführen. Sie können auch auf gering qualifizierte Handlanger zurückgreifen. Angesichts der internationalen Dimension tauschen sich Polizisten wie Kahr mit Kollegen aus anderen Ländern aus. „Wir sehen natürlich, was vor sich geht, und tun einiges dafür, um vor die Lage zu kommen“, sagte er.

Wunderwaffen zum Schutz von Unternehmen gegen KI-Angriffe fehlen

Was können Unternehmen gegen KI-gestützte Angriffe tun? Werkzeuge zum Schutz gibt es, doch die sind keine Wunderwaffen. Oft, aber nicht immer lässt sich an den Metadaten erkennen, ob eine Datei echt ist oder mit KI generiert wurde. Ein erster Schritt wäre, eine Art gesunde Kultur des Misstrauens in Unternehmen zu etablieren, wie Heynike und Stoelting von KPMG es formulierten. Mitarbeiter sollten keine Nachteile erleiden, wenn sie kritische Fragen stellten oder fragwürdige Vorgänge überprüften.

In einer Welt, in der potentiell nichts mehr so sei, wie es scheine, müssten Unternehmen Verlässlichkeit herstellen. Das ziehe sich durch die gesamte Organisation. Auch der Aufsichtsrat müsse regelmäßig über Cyberrisiken informiert werden. „Es wird nicht lange dauern, bis es zu größeren KI-Zwischenfällen kommt, die für einen öffentlichen Aufschrei sorgen“, warnten die beiden KPMG-Fachleute.

Nach Einschätzung von Tim Ahrens, Partner und Forensikfachmann bei der Wirtschaftsprüfung EY, wird es Unternehmen wahrscheinlich nicht immer glücken, Fälschungen aus der Masse an Dokumenten und Daten herauszufiltern. Sein Vortrag zusammen mit dem EY-Forensiker Marco Beck zeigte eine ganze Palette an möglichen Fälschungswerkzeugen.

Große Sprachmodelle wie ChatGPT, Claude oder Gemini könnten sekundenschnell überzeugende Texte erstellen. Bildgeneratoren könnten Firmenlogos, Unterschriften oder Stempel realistisch in gefälschte Lieferscheine, E-Mails oder angebliche Verträge einbauen. Betrüger könnten mit solchen Hilfsmitteln Rechnungen fälschen, Bankkredite beantragen oder Schadensleistungen von Versicherungen abrufen. Auch könnten sie ein Unternehmen mit gefälschten Kundenbeschwerden bombardieren, um dessen Ruf zu untergraben oder seine Prozesse zu lähmen. Nach einer erfolgreichen Attacke verwischen die Angreifer ihre Spuren und sind nicht mehr zu fassen. „Ist das Geld erst einmal überwiesen, kommt man nicht mehr daran, es wird über den ganzen Erdball verteilt“, warnt Ahrens.

AsienBeckBeraterBeziehungBörsenkurseBradChatGPTClaudeCybercrimeDAXDeepfakesDeutschlandE-MailsEuroFabrikenFakesFälschungenFirmenFrancoisFrankreichFreitagGeldGewaltGlaubenIntelligenzInternetJanKambodschaKIKollegenKrisenKulturLangeLernenMANMarcoNordrhein-WestfalenPittProzesseRegierungRobertSchauspielerSelbstSicherheitSoziale NetzwerkeTikTokTimUnternehmenVersicherungenVertrauenVideoWeilWELTZeit