Künstliche Intelligenz: OpenAI-Rivale Anthropic im Clinch mit dem Pentagon


Zur Merkliste hinzufügen

Die KI-Firma Anthropic will dem Pentagon verbieten, ihre Software zur Massenüberwachung in den USA sowie in autonomen Waffen zu nutzen. Das Ministerium akzeptiert keine Einschränkungen und droht.

Der OpenAI-Konkurrent Anthropic legt sich mit dem Pentagon an und will Grenzen für die Verwendung seiner KI-Software im US-Militär durchsetzen. Anthropic bestehe darauf, dass Künstliche Intelligenz der Firma nicht für Massenüberwachung in den USA sowie nicht in komplett autonomen Waffen eingesetzt wird, schrieb Mitgründer und Chef Dario Amodei in einem Blogeintrag. Das Verteidigungsministerium habe deshalb gedroht, Anthropic als ein Lieferketten-Risiko einzustufen, was das Geschäft des Unternehmens in den USA drastisch einschränken würde.

Mit dem Blogeintrag von Amodei bestätigen sich tagelange Medienberichte über den Streit zwischen der Firma und dem Pentagon. Aus dem Verteidigungsministerium kam ein Konter in scharfen Worten. Der ranghohe Beamte Emil Michael schrieb auf der Online-Plattform X, Amodei habe einen „Gott-Komplex“ und wolle persönlich das US-Militär kontrollieren.

Firma: KI nicht verlässlich für autonome Waffen

Das Verteidigungsministerium will nur mit KI-Firmen zusammenarbeiten, die „jedem legalen Einsatz“ ihrer Software zustimmen. Anthropic beharrt jedoch darauf, dass die von der Firma geforderten Einschränkungen wichtig seien. 

So warnte Amodei, dass Künstliche Intelligenz es möglich mache, über das Netz verstreute Daten einzelner Menschen in großem Stil automatisiert zu einem ausführlichen Bild ihres Lebens zusammenzusetzen. Und zugleich sei KI noch nicht verlässlich genug, um in vollständig autonomen Waffen eingesetzt zu werden. „Wir werden nicht wissentlich ein Produkt liefern, das Amerikas Krieger und Zivilisten in Gefahr bringt“, schrieb der Anthropic-Chef.

Pentagon droht

Amodei zufolge droht das Pentagon auch, auf ein Gesetz aus dem Jahr 1950 (Defense Production Act) zurückzugreifen, um Anthropic zur Aufhebung der Beschränkungen zu zwingen. Das Pentagon setzte der Firma eine Frist bis zum späten Freitagnachmittag in Washington, jeglichem legal Einsatz der Software zuzustimmen, wie ein Ministeriumssprecher schrieb.

Die Lücke, die sich in US-Militärsystemen durch ein Ausbooten der Anthropic-Software auftun könnte, dürfte unter anderem die Firma xAI von Tech-Milliardär Elon Musk füllen wollen. Allerdings ist unklar, ob andere Entwickler die Fähigkeiten der Künstlichen Intelligenz von Anthropic bieten können.

Einsatz bei Maduro-Gefangennahme

Spannungen zwischen Anthropic und dem Pentagon wurden öffentlich, nachdem bekannt wurde, dass Software der Firma bei der US-Militäroperation zur Gefangennahme des venezolanischen Machthabers Nicolás Maduro eingesetzt wurde. Wofür genau sie dabei verwendet wurde, blieb unklar. 

Anthropics Chatbot Claude kann – wie etwa auch ChatGPT von OpenAI – unter anderem Dokumente analysieren und Informationen zusammenfassen. Anthropic betonte damals, dass jegliche Nutzung – egal ob in der Privatwirtschaft oder durch Regierungen – im Rahmen der Nutzungsrichtlinie bleiben müsse.

Hegseth will KI für den Krieg

Amodei warnt schon seit längerer Zeit vor Risiken Künstlicher Intelligenz und setzt sich – anders als viele seiner Kollegen – für mehr Leitplanken bei der KI-Entwicklung ein. Das brachte ihn auch auf Kollisionskurs mit dem KI-Beauftragten des Weißen Hauses, David Sacks.

US-Verteidigungsminister Pete Hegseth hatte unterdessen im Januar gesagt, das Pentagon wolle keine KI-Modelle nutzen, „die es nicht erlauben, Kriege zu führen“.

dpa

Source: stern.de