Hacker mit Verbindungen zu den Regierungen in Russland, China, Nordkorea und dem Iran setzen einer neuen Untersuchung zufolge z. Hd. ihre Cyberangriffe immer häufiger den Chatbot ChatGPT ein. Interne Ermittlungen hätten sicher, dass selbige Gruppen dasjenige Programm ChatGPT von OpenAI nutzten, um ihre Methoden zu verfeinern, teilte Microsoft am Mittwoch mit. Der Softwarekonzern ist Großaktionär von OpenAI und nutzt dessen KI-Technologie untergeordnet z. Hd. die eigenen Anwendungen und Software.
Laut Microsoft nutzte etwa die mit dem russischen Geheimdienst in Verbindung stehende Hackergruppe Forest Blizzard ChatGPT, um „verschiedene Satelliten- und Radartechnologien auszukundschaften, die für konventionelle Militäroperationen in der Ukraine von Bedeutung sein könnten“. Iranische und nordkoreanische Gruppen setzten KI vorzugsweise dazu ein, glaubwürdigere sogenannte Phishing-Mails zu formulieren, die Opfer dazu einfahren sollen, Zugangsdaten und Passwörter preiszugeben. Die den chinesischen Behörden nahestehende Gruppe Charcoal Typhoon spürte demnach mit ChatGPT Schwachstellen z. Hd. mögliche Cyberangriffe aus. In allen Fällen seien Large Language Models (LLM) eingesetzt worden.
Die beobachteten Hacker setzten die KI-Programme nur schrittweise ein und hätten bislang keinen Durchbruch erzielt, sagte Microsoft-Manager Tom Burt. „Sie nutzen diese Technologie wie jeder andere.“ Russische Cyberkriminelle mit mutmaßlichen Verbindungen zum dortigen Geheimdienst wiederum erforschten „verschiedene Satelliten- und Radartechnologien, die sich auf militärische Operationen in der Ukraine beziehen könnten“. China frage KI nachher ausländischen Geheimdiensten oder einzelnen Persönlichkeiten aus.
Gefahr laut OpenAI inzwischen „begrenzt“
Wie ChatGPT-Entwickler OpenAI am Mittwoch (Ortszeit) hinauf seiner Website namhaft gab, wurde in Zusammenarbeit mit Microsoft die Nutzung des Chatbots durch die regierungsnahen Akteure „gestört“ und mehrere Konten nicht zugreifbar. Die Gefahr sei „begrenzt“, sagte dasjenige Unternehmen. „Unabhängig davon, ob ein Verstoß gegen das Gesetz oder gegen die Nutzungsbedingungen vorliegt, wollen wir einfach nicht, dass die von uns identifizierten Akteure Zugang zu dieser Technologie haben“, sagte Burt welcher Nachrichtenagentur Reuters. Zum Umfang dieser Aktivitäten oder zur Zahl gesperrter Nutzerkonten wollte er sich trotzdem nicht sagen.
Russland, Nordkorea und Iran waren z. Hd. verdongeln Kommentar zunächst nicht zu gelingen. China kritisierte die Vorwürfe wie „grundlose Verleumdung“. Westliche Experten warnen seitdem Längerem vor dem Missbrauch von KI durch Kriminelle. Beweise hierfür gibt es bislang trotzdem nur wenige.
ChatGPT ist ein hinauf fortschrittlicher KI-Technologie basierender Chatbot, welcher in Sekundenschnelle hochkomplexe Texte generieren kann. Seine Einführung im November 2022 machte die Möglichkeiten sogenannter generativer KI schlagartig einem großen Publikum kognitiv. Zugleich wachsen trotzdem die Befürchtungen oberhalb mögliche Gefahren welcher Technologie. Cybersicherheitsunternehmen setzen maschinelles Lernen schon heftige Menstruationsblutung zur Verteidigung ein, vor allem, um anomales Verhalten in Netzwerken zu wiedererkennen. Aber untergeordnet Kriminelle und offensive Hacker nutzen es. Der Siegeszug von KI-Programmen mit LLM im Gefolge welcher Einführung von ChatGPT hat dieses Katz-und-Maus-Spiel noch einmal gesteigert.
Hacker mit Verbindungen zu den Regierungen in Russland, China, Nordkorea und dem Iran setzen einer neuen Untersuchung zufolge z. Hd. ihre Cyberangriffe immer häufiger den Chatbot ChatGPT ein. Interne Ermittlungen hätten sicher, dass selbige Gruppen dasjenige Programm ChatGPT von OpenAI nutzten, um ihre Methoden zu verfeinern, teilte Microsoft am Mittwoch mit. Der Softwarekonzern ist Großaktionär von OpenAI und nutzt dessen KI-Technologie untergeordnet z. Hd. die eigenen Anwendungen und Software.
Laut Microsoft nutzte etwa die mit dem russischen Geheimdienst in Verbindung stehende Hackergruppe Forest Blizzard ChatGPT, um „verschiedene Satelliten- und Radartechnologien auszukundschaften, die für konventionelle Militäroperationen in der Ukraine von Bedeutung sein könnten“. Iranische und nordkoreanische Gruppen setzten KI vorzugsweise dazu ein, glaubwürdigere sogenannte Phishing-Mails zu formulieren, die Opfer dazu einfahren sollen, Zugangsdaten und Passwörter preiszugeben. Die den chinesischen Behörden nahestehende Gruppe Charcoal Typhoon spürte demnach mit ChatGPT Schwachstellen z. Hd. mögliche Cyberangriffe aus. In allen Fällen seien Large Language Models (LLM) eingesetzt worden.