KI im Krieg: Wie Algorithmen Angriffe beschleunigen
Im Iran-Krieg haben die USA und Israel in kurzer Zeit auffallend viele Ziele angegriffen. Fachleute führen die hohe Geschwindigkeit und Koordination der Angriffe auch auf den verstärkten Einsatz von Künstlicher Intelligenz zurück.
In den ersten Stunden des Iran-Kriegs griffen die USA und Israel nicht nur militärische Einrichtungen an, sondern töteten auch führende Vertreter des iranischen Regimes. Bei der Identifizierung der Ziele und der Koordinierung der Attacken spielte Künstliche Intelligenz (KI) offenbar eine wichtige Rolle.
Als zentrales Werkzeug wird häufig das „Maven Smart System“ (MSS) des US-Unternehmens Palantir genannt. Das ist eine Softwareplattform, die Datenströme von Aufklärungssatelliten, Drohnen oder Radarsystemen zusammenführt und mithilfe von KI auswertet.
Cameron Stanley, Chief Digital and Artificial Intelligence Officer des US‑Verteidigungsministeriums, demonstrierte das System im März auf einer Konferenz von Palantir. MSS bündele die Auswertung aus „acht oder neun“ Einzelsystemen in einem Visualisierungstool, so Stanley.
Die Plattform markiert Fahrzeuge, Anlagen oder Waffenlager als potenzielle Ziele und erstellt Lagebilder sowie Vorschläge für das weitere Vorgehen. Ziel ist es, Analyse- und Planungsprozesse deutlich zu beschleunigen: Anstatt mehrere Spezialprogramme nacheinander auswerten zu müssen, sehen militärische Stäbe zentrale Informationen gebündelt in einer Oberfläche.
Beschleunigte Abläufe – aber nicht voll automatisiert
Nach Medienberichten kommt MSS bereits im laufenden US‑Krieg gegen Iran zum Einsatz. Demnach greifen die Streitkräfte dabei auf eine Vielzahl von Datenquellen zurück. In der Anfangsphase sollen so binnen 24 Stunden Hunderte bis rund 1.000 Ziele ausgewählt und angegriffen worden sein.
„Der vorwiegende Eindruck ist, dass Künstliche Intelligenz diese sogenannte ‚Kill Chain‘ schon komplett übernommen hat, automatisiert hat, und der Mensch eigentlich gar keine Rolle mehr spielt“, sagt Heiko Borchert von der Helmut-Schmidt-Universität Hamburg im Interview mit STABILE ZEITENLAGE.
Die sogenannte Kill Chain, also der Prozess von der Zielerkennung bis nach dem Waffeneinsatz, bestehe in der US‑Luftkriegsdoktrin aus sechs Schritten – von der politischen Zielsetzung über die Erstellung der Zielliste und Waffenwahl bis zur Missionsplanung und Auswertung.
KI spiele derzeit vor allem bei der Entwicklung und Priorisierung von Zielen sowie bei der Missionsplanung eine wichtige Rolle, andere Schritte blieben rein menschliche Entscheidungen. „Die ‚Kill Chain‘ ist nicht automatisiert“, betont Borchert.
Neues Format für sicherheitspolitische Themen
Mit dem neuen Social‑Media‑Format STABILE ZEITENLAGE auf den tagesschau‑Kanälen bei YouTube und TikTok greift der NDR sicherheitspolitische Themen wie den Einsatz von KI in Konflikten auf. STABILE ZEITENLAGE arbeitet eng mit dem renommierten Podcast-Team „Streitkräfte & Strategien“ zusammen. Ziel ist es, Entwicklungen verständlich zu machen und Orientierung zu bieten, ohne die Risiken zu verharmlosen.
Er verweist zudem darauf, dass schnelles Abarbeiten einer Zielliste nicht automatisch militärischen Erfolg bedeute: Ob eine Operation die Fähigkeiten des Gegners tatsächlich schwächt, hänge von Zielen und Strategie ab.
Das US‑Verteidigungsministerium betont, dass bei „Maven Smart System“ weiterhin Menschen die letzte Entscheidung über Angriffe träfen. Palantir erklärt nach Medienberichten, die Software treffe keine tödlichen Entscheidungen, sondern unterstütze lediglich bei Analyse und Planung.
Fehler unter hohem Tempo
Wie fehleranfällig solche Systeme sind, zeigte ein Angriff, bei dem am ersten Kriegstag eine Mädchenschule getroffen wurde, in deren Umfeld sich militärische Einrichtungen befinden. Nach ersten Untersuchungen könnten veraltete Aufnahmen eine Rolle gespielt haben.
Bewiesen ist ein direkter Zusammenhang mit KI-Systemen nicht, doch der Fall verdeutlicht ein Grundproblem: KI-Anwendungen sind auf die Qualität der Daten angewiesen, die sie verarbeiten. Sind Informationen veraltet oder unvollständig, kann ein System falsche Schlüsse ziehen – mit tödlichen Folgen für Zivilistinnen und Zivilisten.
Hinzu kommt ein psychologischer Effekt. Forschende sprechen vom „Automation Bias“: Unter Zeitdruck neigen Menschen dazu, Vorschlägen von Maschinen eher zu vertrauen, als sie kritisch zu hinterfragen. „“Automation Bias‘ hat damit zu tun, dass wir psychologisch so veranlagt sind, der Maschine viel mehr Vertrauen zu schenken, als sie vielleicht haben sollte“, erklärt die Politikwissenschaftlerin Elke Schwarz, die zu Ethik und KI im Militär forscht.
Wer trägt die Verantwortung?
Schwarz warnt vor einem schleichenden Automatismus in der Kriegsführung. Formell träfen weiterhin Menschen die Entscheidung über einen Angriff. Doch je schneller Systeme Zielpakete liefern, desto enger werde der zeitliche Rahmen für Abwägung und Kontrolle.
„Da muss der Mensch, der in dieser Entscheidungsschlaufe sitzt, sich demselben Tempo fügen und hat dann wenig Zeit, noch mal drüber nachzudenken und zu verifizieren“, sagt sie.
Borchert betont dagegen stärker die Rolle der politischen und militärischen Führung. „Im Moment ist es unsere menschliche Entscheidung, diese Ruchlosigkeit zuzulassen oder nicht zuzulassen“, sagt er.
Militärische Gewalt losgelöst von menschlicher Kontrolle?
Menschenrechtsorganisationen warnen seit Jahren vor einer Entkopplung militärischer Gewalt von menschlicher Kontrolle. Sie sehen die Gefahr, dass bei automatisierten Zielprozessen zentrale Prinzipien des humanitären Völkerrechts, etwa die Unterscheidung zwischen Kämpfenden und Zivilisten oder das Verhältnismäßigkeitsgebot, schwerer einzuhalten und zu überprüfen sind.
Auf internationaler Ebene wird zwar über Leitplanken für den Einsatz von KI in der Kriegsführung diskutiert, etwa in UN-Gremien zu sogenannten „Lethal Autonomous Weapon Systems“. Ein völkerrechtlich verbindliches Verbot vollständig autonomer Waffensysteme gibt es bislang jedoch nicht.
Source: tagesschau.de