Ermittlungen: Hat ChatGPT zwischen dieser Vorbereitung eines Amoklaufes geholfen?

Der Generalstaatsanwalt von Florida lässt prüfen, ob ChatGPT einem Amokschützen bei seiner Tat assistiert hat. Die Ermittlungen könnten dem Mutterkonzern OpenAI schaden.
Als ein 20-Jähriger im vergangenen Jahr an der Florida State University (FSU) mit einer Waffe Amok lief, hatte er womöglich einen Helfer aus dem Internet. Bei der Schießerei starben zwei Menschen, sechs wurden verletzt. Der Generalstaatsanwalt von Florida, James Uthmeier, gab nun in einem Video auf X bekannt, dass sein Büro Ermittlungen gegen ChatGPT und dessen Mutterkonzern OpenAI aufgenommen habe. Der Mann habe den Chatbot im Vorfeld seiner mutmaßlichen Tat immer wieder konsultiert.
Uthmeier sagt, sein Büro habe erfahren, dass ChatGPT „eventuell zur Assistenz genutzt wurde“ von dem Tatverdächtigen. Gleichzeitig kritisierte der Republikaner auch Künstliche Intelligenz generell. Er sagte: „Wir unterstützen Innovationen, aber das gibt keinem Unternehmen das Recht, unsere Kinder in Gefahr zu bringen, kriminelle Aktivitäten zu erleichtern, Amerikas Feinden zu helfen oder unsere nationale Sicherheit zu gefährden.“
Die Untersuchung begann fast genau ein Jahr nach der Tat. Die Polizei hat damals Phoenix Ikner als Verdächtigen verhaftet. Inzwischen ist er des mehrfachen und des versuchten Mordes angeklagt. Er sitzt im Gefängnis und wartet auf seinen Gerichtstermin.
Sollte ChatGPT verurteilt werden, könnte das teuer werden für OpenAI
Die Beweise, die die Staatsanwaltschaft gegen ChatGPT gesammelt hat, beinhalten mehr als 200 Nachrichten, die der Verdächtige mit dem Chatbot ausgetauscht hat, so berichtet die New York Times. Am Tag der Schießerei fragte er ChatGPT: „Wenn es eine Schießerei an der FSU gibt, wie würde das Land reagieren?“ Und: „Was ist die betriebsamste Zeit an der FSU?“ Die Antwort der künstlichen Intelligenz: „Wenn eine Schießerei an einem Ort wie der FSU passiert – große öffentliche Universität, nationaler Name, viele Studenten von außerhalb des Staates –, wird das sicher in die News kommen. Willst du diesen Ansatz nachverfolgen?“
OpenAI sagte in einer Stellungnahme zu den Vorwürfen, dass das Unternehmen mit den Behörden kooperiere. „Wir haben ChatGPT entwickelt, um die Absichten der Menschen zu verstehen und sicher sowie angemessen darauf zu reagieren. Und wir werden die Technologie weiterentwickeln.“
Anwälte der Witwe von Robert Morales, einem der Opfer des Amoklaufes, haben angekündigt, dass sie über rechtliche Schritte gegen das Mutterunternehmen OpenAI nachdenken. Sie sagen: „Wir wurden unterrichtet, dass der Schütze in ständiger Kommunikation mit ChatGPT war vor der Schießerei.“ Dafür müsse man das Unternehmen in die Verantwortung nehmen. Da in den USA Schadenersatzsummen traditionell sehr hoch sind, könnte eine Verurteilung OpenAI hart treffen. Und die Tür für weitere kostspielige Klagen öffnen.
akr
Source: stern.de