Chatbot: ChatGPT-Macher zeitweilig ausschließen Accounts von Hackergruppen
Hacker mit Verbindungen zu den Regierungen in Russland, China, Nordkorea und dem Iran setzen einer neuen Untersuchung zufolge pro ihre Cyberangriffe immer häufiger den Chatbot ChatGPT ein. Interne Ermittlungen hätten zuverlässig, dass sie Gruppen dies Programm ChatGPT von OpenAI nutzten, um ihre Methoden zu verfeinern, teilte Microsoft am Mittwoch mit. Der Softwarekonzern ist Großaktionär von OpenAI und nutzt dessen KI-Technologie gleichwohl pro die eigenen Anwendungen und Software.
Laut Microsoft nutzte etwa die mit dem russischen Geheimdienst in Verbindung stehende Hackergruppe Forest Blizzard ChatGPT, um „verschiedene Satelliten- und Radartechnologien auszukundschaften, die für konventionelle Militäroperationen in der Ukraine von Bedeutung sein könnten“. Iranische und nordkoreanische Gruppen setzten KI vorzugsweise dazu ein, glaubwürdigere sogenannte Phishing-Mails zu formulieren, die Opfer dazu erwirtschaften sollen, Zugangsdaten und Passwörter preiszugeben. Die den chinesischen Behörden nahestehende Gruppe Charcoal Typhoon spürte demnach mit ChatGPT Schwachstellen pro mögliche Cyberangriffe aus. In allen Fällen seien Large Language Models (LLM) eingesetzt worden.
Die beobachteten Hacker setzten die KI-Programme nur schrittweise ein und hätten bislang keinen Durchbruch erzielt, sagte Microsoft-Manager Tom Burt. „Sie nutzen diese Technologie wie jeder andere.“ Russische Cyberkriminelle mit mutmaßlichen Verbindungen zum dortigen Geheimdienst wiederum erforschten „verschiedene Satelliten- und Radartechnologien, die sich auf militärische Operationen in der Ukraine beziehen könnten“. China frage KI nachher ausländischen Geheimdiensten oder einzelnen Persönlichkeiten aus.
Gefahr laut OpenAI inzwischen „begrenzt“
Wie ChatGPT-Entwickler OpenAI am Mittwoch (Ortszeit) hinaus seiner Website publiziert gab, wurde in Zusammenarbeit mit Microsoft die Nutzung des Chatbots durch die regierungsnahen Akteure „gestört“ und mehrere Konten nicht zugreifbar. Die Gefahr sei „begrenzt“, sagte dies Unternehmen. „Unabhängig davon, ob ein Verstoß gegen das Gesetz oder gegen die Nutzungsbedingungen vorliegt, wollen wir einfach nicht, dass die von uns identifizierten Akteure Zugang zu dieser Technologie haben“, sagte Burt jener Nachrichtenagentur Reuters. Zum Umfang dieser Aktivitäten oder zur Zahl gesperrter Nutzerkonten wollte er sich trotzdem nicht bemerken.
Russland, Nordkorea und Iran waren pro verknüpfen Kommentar zunächst nicht zu glücken. China kritisierte die Vorwürfe qua „grundlose Verleumdung“. Westliche Experten warnen seit dem Zeitpunkt Längerem vor dem Missbrauch von KI durch Kriminelle. Beweise hierfür gibt es bislang trotzdem nur wenige.
ChatGPT ist ein hinaus fortschrittlicher KI-Technologie basierender Chatbot, jener in Sekundenschnelle hochkomplexe Texte generieren kann. Seine Einführung im November 2022 machte die Möglichkeiten sogenannter generativer KI schlagartig einem großen Publikum gewahr. Zugleich wachsen trotzdem die Befürchtungen jenseits mögliche Gefahren jener Technologie. Cybersicherheitsunternehmen setzen maschinelles Lernen schon tief zur Verteidigung ein, vor allem, um anomales Verhalten in Netzwerken zu wiedererkennen. Aber gleichwohl Kriminelle und offensive Hacker nutzen es. Der Siegeszug von KI-Programmen mit LLM im Gefolge jener Einführung von ChatGPT hat dieses Katz-und-Maus-Spiel noch einmal gesteigert.
Hacker mit Verbindungen zu den Regierungen in Russland, China, Nordkorea und dem Iran setzen einer neuen Untersuchung zufolge pro ihre Cyberangriffe immer häufiger den Chatbot ChatGPT ein. Interne Ermittlungen hätten zuverlässig, dass sie Gruppen dies Programm ChatGPT von OpenAI nutzten, um ihre Methoden zu verfeinern, teilte Microsoft am Mittwoch mit. Der Softwarekonzern ist Großaktionär von OpenAI und nutzt dessen KI-Technologie gleichwohl pro die eigenen Anwendungen und Software.
Laut Microsoft nutzte etwa die mit dem russischen Geheimdienst in Verbindung stehende Hackergruppe Forest Blizzard ChatGPT, um „verschiedene Satelliten- und Radartechnologien auszukundschaften, die für konventionelle Militäroperationen in der Ukraine von Bedeutung sein könnten“. Iranische und nordkoreanische Gruppen setzten KI vorzugsweise dazu ein, glaubwürdigere sogenannte Phishing-Mails zu formulieren, die Opfer dazu erwirtschaften sollen, Zugangsdaten und Passwörter preiszugeben. Die den chinesischen Behörden nahestehende Gruppe Charcoal Typhoon spürte demnach mit ChatGPT Schwachstellen pro mögliche Cyberangriffe aus. In allen Fällen seien Large Language Models (LLM) eingesetzt worden.