Künstliche Intelligenz: Was darf KI im Krieg?

In den Vereinigten Staaten treibt man den Einsatz Künstlicher Intelligenz (KI) im Militär konsequent voran: Verteidigungsminister Pete Hegseth hat unmissverständlich klargemacht, dass KI-Systeme den Streitkräften für „alle rechtmäßigen“ Zwecke uneingeschränkt zur Verfügung stehen sollen. Darüber streitet das Pentagon mit Anthropic, dessen Chatbot Claude als besonders kriegstauglich gilt, den die Firma aber nicht für vollautonome Waffeneinsätze oder Massenüberwachung freigeben will.

Hierzulande ist die Debatte über den Einsatz von KI im Krieg auch von Vorbehalten und grundsätzlichen Fragen geprägt: Was darf KI im Krieg, was ist ethisch vertretbar? Welche Gefahren birgt ihr Einsatz? Wie verändert KI das Geschehen auf dem Gefechtsfeld? Und wer trägt die Verantwortung, wenn ein System irrt?

Die amerikanische Regierung verfolgt in Fragen der Militärethik schon lange einen Ansatz, bei dem eher vom Ergebnis her gedacht wird. In Fernsehansprachen präsentieren amerikanische Präsidenten die Tötung von Terroristen als Erfolg. Bei militärischen Veranstaltungen werden Soldaten für Innovationen gelobt, indem man die Zahl der dadurch getöteten Terroristen feiert. „Peinlich berührt wäre man in Europa, dafür zu applaudieren“, sagt Generalleutnant a. D. Ansgar Gerhard Rieks, bis Ende Juni 2023 Stellvertreter des Inspekteurs der Luftwaffe.

Rieks hat eine Arbeitsgemeinschaft Technikverantwortung im deutsch-französischen Rüstungsprojekt FCAS (Future Combat Air System) von Beginn an begleitet und prägt diese auch heute weiterhin mit. „Im europäischen Raum denken wir im Gegensatz dazu immer eher von der Maßnahme her: Wenn die Maßnahme gerechtfertigt oder unabdingbar notwendig ist, dann können wir sie umsetzen“, sagt er.

Präziser, schneller, effizienter

Den größten Nutzen von KI für das Militär sieht Rieks derzeit bei der Erstellung von Lagebildern. Sensor- und Aufklärungsdaten sowie Meldungen werden in Echtzeit gebündelt, Bedrohungen herausgefiltert und die Übersicht laufend aktualisiert. „Ein wesentlicher Vorteil von Künstlicher Intelligenz ist: Wir sind viel umfassender informiert. Wir kriegen viel mehr Daten verarbeitet.“ Dies reduziere das Maß an Unsicherheit, sagt Rieks.

Generalleutnant a. D. Ansgar Rieksprivat

Lagebilder seien heute deutlich präziser, und KI helfe, Informationen wesentlich schneller auszuwerten. Früher blieb für die Planung von Luftoperationen erheblich mehr Zeit: Im Kalten Krieg waren Acht-Stunden-Zyklen üblich, bei den Landstreitkräften teils erheblich mehr. Was damals als schnell galt, wirke heute fast absurd.

Zudem, sagt Rieks, mache KI moderne Waffensysteme in vielen Fällen erst einsatzfähig. Flugsteuerungs- und Assistenzsysteme hielten „instabile“, dafür besonders wendige Kampfflugzeuge wie den Eurofighter überhaupt kontrollierbar. „Wenn Sie in einem Eurofighter sitzen und ihn so fliegen würden wie bei dem Vorgängerkampfflugzeug Phantom – also mit sehr viel manueller Tätigkeit und menschlicher Einflussnahme, aber ohne KI-Unterstützung –, würde die Maschine abstürzen.“ Nur durch Unterstützung von KI schaffe man es überhaupt, mit moderner Technik in einer Art und Weise umzugehen, dass sie in der Luft, auf See oder auf dem Schlachtfeld bestehe.

KI im weiteren Sinne umfasst ein breites Spektrum: von einfachen Algorithmen, die einer Eingabe nach festen Regeln eine bestimmte Ausgabe zuordnen, über lernende Verfahren, die ihre Einstellungen mithilfe von Daten Schritt für Schritt verbessern, bis hin zu komplexen Systemen, die sich durch Rückmeldungen weiterentwickeln und deren Ergebnisse nicht genau vorhersehbar sind.

KI könne „in einem hohen Maße unverantwortlich“ eingesetzt werden

Der Einsatz von KI mache auch neue Anwendungen möglich, so Rieks. Prognosen zum Weltraumwetter ließen sich mit KI zum Beispiel vergleichsweise gut erstellen. KI unterstütze die Streitkräfte auch bei der Planung, etwa beim schnellen Zusammenstellen von Flugoperationsbefehlen. Zudem helfe KI bei der Ausbildung, weil Trainings besser zugeschnitten werden könnten.

Bei militärischen Operationen ergebe sich ein unmittelbarer Vorteil: Angriffe würden durch KI-Unterstützung genauer, sagt Rieks. Im Zweiten Weltkrieg seien ganze Städte und Regionen bombardiert worden – oft undifferenziert, um die Rüstungsindustrie zu treffen oder auch, je nach Zielsetzung, Terror zu erzeugen. „Dass sie heute eine Waffe steuern können, die sozusagen auf einem Quadratmeter, der vorgegeben ist, präzise einschlägt, ist natürlich eine Entwicklung, die operativ gut ist, weil sie kein Material verwenden für irgendwas, was gar nicht von operativem Wert ist.“

Koch gibt zu bedenken, technischer Fortschritt sei grundsätzlich ambivalent, auch bei KI. Als „mächtiges Werkzeug“ könne sie sehr verantwortungsbewusst eingesetzt werden, ebenso aber „in einem hohen Maße unverantwortlich“, sagt er.

Professor Wolfgang Koch, Fraunhofer-Institut FKIEDaphne Siegel

Zugleich betont Koch, KI und vernetzte Systeme erweiterten das bewusste Wahrnehmen weit über das hinaus, was Menschen mit ihren Sinnen leisten könnten: „Sinnesorgane“ würden in Form von Sensoren räumlich verteilt, Informationen ließen sich in Echtzeit zusammenführen und teilen – Fähigkeiten, die der Mensch von Natur aus nicht habe. „Wir steigern unsere Wahrnehmungsfähigkeit weit über natürliches Maß hinaus.“

Damit wachse auch die Entscheidungsfähigkeit, also die Reichweite dessen, was man überhaupt erkennen, abwägen und wollen könne. Es stelle sich auch die Frage, ob diese Fülle an Optionen und Bewertungen den Menschen am Ende nicht auch überfordere.

Operator nicht mehr alleiniger Träger der Verantwortung

Die Frage nach der Verantwortung bei Fehlern ist spätestens mit dem Krieg in Iran neu entbrannt: Ein Vorfall, dessen Hergang noch nicht abschließend geklärt ist, beschäftigt die amerikanische Regierung im Rahmen einer internen Untersuchung: Am 28. Februar, dem ersten Tag der Angriffe in Iran, wurde in der Stadt Minab eine Grundschule bombardiert; mehr als 170 Menschen kamen dabei ums Leben, darunter viele Kinder.

Nach den vorläufigen Untersuchungsergebnissen, über die die „New York Times“ sowie Reuters und AP berichteten, könnten veraltete Zieldaten des amerikanischen Militärgeheimdienstes DIA einen Fehler bei der Zielauswahl begünstigt haben. Der Schulkomplex soll früher militärisch genutzt worden sein und liegt in unmittelbarer Nähe militärischer Stellungen.

Rettungskräfte und Anwohner durchsuchen nach dem Angriff auf die Mädchenschule in Minab die Trümmer.dpa

Ohne den aktuellen Fall bewerten zu wollen, plädiert General Rieks dafür, die klassische Verantwortlichkeit, die man früher immer dem Operator gegeben habe, heute differenzierter zu betrachten. „Deshalb schlage ich bei der Frage der Verantwortung in einem systemischen Ansatz immer vor, zu analysieren, wer welche Verantwortung hat: Manchmal ist es nicht der Pilot in seinem Flugzeug, sondern vielleicht der, der die Daten einsteuert. Manchmal ist es auch derjenige, der einen Sensor, aus dem die Daten stammen, betreibt. Und manchmal ist es vielleicht sogar derjenige, der die Datenleitung verantwortet.“

Schon immer gelte: Wenn Entscheidungen auf Informationen beruhen, die von Maschinen oder anderen Menschen aufbereitet wurden, entstehe eine Abhängigkeit von der Qualität dieser Informationen und den Verfahren, nach denen sie zustande kommen.

Verantwortlichkeit sei deshalb „immer geteilt“, sagt Rieks. Sie beginne beim Forscher, der das KI-Verfahren entwickelt, gehe über den Ingenieur, der es ins System integriert, bis zu demjenigen, der es mit Daten trainiert, und schließlich zum Operator, der es im Einsatz nutzt. Der Operator bleibe „letztverantwortlich“, könne in einer digitalisierten Welt aber „nicht mehr als alleiniger Träger der Verantwortung“ verstanden werden.

Koch betont in diesem Zusammenhang: „Datenerhebung und Datenpflege müssen nachvollziehbar und überprüfbar sein.“ Wer eine KI zulassen wolle, müsse deshalb sauber dokumentieren, mit welchen Daten sie trainiert wurde.

Als besondere Herausforderung beschreibt er die Gefechtssituation: Weil sich die Realität dort schnell verändere, könne eine einmal trainierte KI rasch nicht mehr passen. Dann müsse man erkennen, dass die Leistung nachlässt, und ein Retraining durchführen – inklusive „Buchhaltung“: also genau festhalten, was geändert wurde und womit nachtrainiert wurde.

Hinzu komme: Sensoren könnten fehlerhafte Daten liefern, oder ein Gegner könne stören und täuschen. Deshalb brauche es Prüfungen der Datenvalidität und der Robustheit gegen Manipulation.

Kritisches Denkvermögen aufrechterhalten

Die Völkerrechtlerin Vanessa Vohs von der Universität der Bundeswehr München nennt neben dem Problem veralteter Daten weitere Fehlerquellen beim Einsatz von KI. Zum einen die menschliche Tendenz, „kritisches Denken eher herabzusetzen und der Maschine mehr zu vertrauen als unserer eigenen Intuition“, den sogenannten Automation Bias.

„Übermäßiges Vertrauen in die Maschine“ könne dazu führen, dass Vorgaben des humanitären Völkerrechts verletzt werden – etwa weil militärische und zivile Ziele verwechselt werden oder unverhältnismäßig viel Gewalt eingesetzt wird und mildere Mittel möglich wären.

Vanessa Vohs, LL.M., Universität der Bundeswehr Münchenprivat

Zum anderen sieht sie beim Einsatz von KI ein „Blackbox-Problem“: Oft könne man nicht nachvollziehen, warum ein System zu einem bestimmten Ergebnis komme. „Dann ist mir die Datengrundlage nicht klar, und ich laufe Gefahr, aus dem Resultat falsche Schlüsse zu ziehen.“

Deshalb brauche es viel Ausbildung und Training, auch mit Szenarien, in denen bewusst falscher Output simuliert wird, sagt Vohs. „Der Soldat muss gut drauf trainiert werden, sein kritisches Denkvermögen weiter aufrechtzuerhalten.“

Sie weist darauf hin, dass das humanitäre Völkerrecht „grundsätzlich technologieunabhängig“ gelte. Seit mehr als zehn Jahren habe es zwar Versuche gegeben, den Einsatz von KI im Militär bei den Vereinten Nationen zu regeln, allerdings ohne Erfolg. Deshalb werde man nun beobachten müssen, wie sich die Praxis entwickelt und welche Regelungen sich daraus ergeben.

Grundsätzlich wird im Völkerrecht unterschieden zwischen der Staatenverantwortung und individueller strafrechtlicher Verantwortung. Staaten sind an das humanitäre Völkerrecht gebunden, auch gibt es eine staatliche Pflicht zur Überprüfung neuer Waffensysteme vor dem Einsatz auf Konformität mit dem humanitären Völkerrecht.

Die individuelle Strafverantwortung hingegen betrifft Einzelpersonen; sie ist typischerweise an einen hohen Vorsatzmaßstab geknüpft, also an ein hohes Maß an Intention. Mit Blick auf den Einsatz von KI, so Vohs, werde es dann problematisch, wenn zwar objektiv ein schwerer Verstoß bis hin zum Kriegsverbrechen passiere, aber „niemand das wollte“, weder der Operator, Staat noch der Hersteller; dann fehle oft die erforderliche Intention. Überlegungen gebe es daher, den Vorsatzstandard abzusenken.

Hersteller von KI, betont Vohs, seien „natürlich erst mal keine Völkerrechtsobjekte“. Sie treffen daher nicht dieselben unmittelbaren Pflichten aus dem Völkerrecht wie Staaten. Ihre Verantwortung liege eher darin, selbst gesetzte Standards einzuhalten und nationales Recht zu befolgen – etwa bei der Haftung für fehlerhafte Produkte, im Strafrecht und bei Exportvorschriften. Werde eine KI zudem sowohl zivil als auch militärisch genutzt (Dual Use), kämen zusätzliche Compliance-Pflichten nach EU-Regeln wie dem AI Act hinzu. Auf völkerrechtlicher Ebene könnten Staaten die Verantwortung nicht abwälzen, indem sie auf ein „falsch funktionierendes Produkt“ verweisen.

Der Mensch als Vorgesetzter der Maschine

KI übernehme zunehmend die Rolle von Experten und Spezialisten, sagt Wolfgang Koch vom Fraunhofer-Institut. Sie liefere Auswertungen und „Berichte“, während der Mensch stärker als Vorgesetzter agiere, der diese Ergebnisse einordnet, gegeneinander abwägt und verantwortet. Dafür müsse er allerdings genügend Verständnis und „ein Gefühl“ für die Leistungsfähigkeit und Grenzen der Systeme behalten.

Auch General Rieks rechnet künftig nicht mit einer vollständig automatisierten Kriegsführung. Dies sei auch aus militärischer Sicht nicht effizient, weil in vielen Lagen ohne menschliche Einordnung und Entscheidung das Ziel verfehlt werden könne. Als Beispiel verwies er auf FCAS: Dort sei gerade ein System mit einem Piloten im Cockpit vorgesehen, der den Verbund aus bemannten und unbemannten Komponenten führe statt eines rein unbemannten Schwarms.

Entscheidend für den verantwortbaren Einsatz von Technik, Digitalisierung und KI in militärischen Fähigkeiten, so General Rieks, sei, dass man sich darauf verständige, in die konkreten Anwendungen hineinzuschauen, die militärisch-operativen, technischen und ethischen Perspektiven offen auszutauschen und daraus eine tragfähige gemeinsame Linie zu entwickeln.

Source: faz.net