Warnung vor KI-Nutzung im Krieg: OpenAI-Rivale Anthropic zofft sich mit dem Pentagon
Warnung vor KI-Nutzung im KriegOpenAI-Rivale Anthropic zofft sich mit dem Pentagon
27.02.2026, 07:23 Uhr

Der Einsatz von Künstlicher Intelligenz wird immer wichtiger für die moderne Kriegsführung. Das birgt Risiken, wie ein KI-Unternehmen dem US-Verteidigungsministerium klarzumachen versucht. Anthropic pocht bei der Nutzung seiner Software auf Ausnahmen – und wird vom Pentagon bedroht.
Der OpenAI-Konkurrent Anthropic legt sich mit dem Pentagon an und will Grenzen für die Verwendung seiner KI-Software im US-Militär durchsetzen. Anthropic bestehe darauf, dass Künstliche Intelligenz der Firma nicht für Massenüberwachung in den USA sowie nicht in komplett autonomen Waffen eingesetzt wird, schreibt Mitgründer und Chef Dario Amodei in einem Blogeintrag. Das Verteidigungsministerium habe deshalb gedroht, Anthropic als ein Lieferketten-Risiko einzustufen, was das Geschäft des Unternehmens in den USA drastisch einschränken würde.
Mit dem Blogeintrag von Amodei bestätigen sich tagelange Medienberichte über den Streit zwischen der Firma und dem Pentagon. Aus dem Verteidigungsministerium kam ein Konter in scharfen Worten. Der ranghohe Beamte Emil Michael schrieb auf der Onlineplattform X, Amodei habe einen „Gott-Komplex“ und wolle persönlich das US-Militär kontrollieren.
Das Verteidigungsministerium will nur mit KI-Firmen zusammenarbeiten, die „jedem legalen Einsatz“ ihrer Software zustimmen. Anthropic beharrt jedoch darauf, dass die von der Firma geforderten Einschränkungen wichtig seien.
So warnte Amodei, dass Künstliche Intelligenz es möglich mache, über das Netz verstreute Daten einzelner Menschen in großem Stil automatisiert zu einem ausführlichen Bild ihres Lebens zusammenzusetzen. Und zugleich sei KI noch nicht verlässlich genug, um in vollständig autonomen Waffen eingesetzt zu werden. „Wir werden nicht wissentlich ein Produkt liefern, das Amerikas Krieger und Zivilisten in Gefahr bringt“, schrieb der Anthropic-Chef.
Amodei zufolge droht das Pentagon auch, auf ein Gesetz aus dem Jahr 1950 (Defense Production Act) zurückzugreifen, um Anthropic zur Aufhebung der Beschränkungen zu zwingen. Das Pentagon setzte der Firma eine Frist bis zum späten Freitagnachmittag in Washington, jeglichem legalen Einsatz der Software zuzustimmen, wie ein Ministeriumssprecher schrieb.
Einsatz bei Maduro-Gefangennahme
Die Lücke, die sich in US-Militärsystemen durch ein Ausbooten der Anthropic-Software auftun könnte, dürfte unter anderem die Firma xAI von Tech-Milliardär Elon Musk füllen wollen. Allerdings ist unklar, ob andere Entwickler die Fähigkeiten der Künstlichen Intelligenz von Anthropic bieten können.
Spannungen zwischen Anthropic und dem Pentagon wurden öffentlich, nachdem bekannt wurde, dass Software der Firma bei der US-Militäroperation zur Gefangennahme des venezolanischen Machthabers Nicolás Maduro eingesetzt wurde. Wofür genau sie dabei verwendet wurde, blieb unklar.
Anthropics Chatbot Claude kann – wie etwa auch ChatGPT von OpenAI – unter anderem Dokumente analysieren und Informationen zusammenfassen. Anthropic betonte damals, dass jegliche Nutzung – egal ob in der Privatwirtschaft oder durch Regierungen – im Rahmen der Nutzungsrichtlinie bleiben müsse.
Hegseth will KI für den Krieg
Amodei warnt schon seit längerer Zeit vor Risiken Künstlicher Intelligenz und setzt sich – anders als viele seiner Kollegen – für mehr Leitplanken bei der KI-Entwicklung ein. Das brachte ihn auch auf Kollisionskurs mit dem KI-Beauftragten des Weißen Hauses, David Sacks.
US-Verteidigungsminister Pete Hegseth hatte unterdessen im Januar gesagt, das Pentagon wolle keine KI-Modelle nutzen, „die es nicht erlauben, Kriege zu führen“.
Source: n-tv.de