Überflieger | Zwischen Hype und Horror: Die Rolle von Drohnen in dieser modernen Kriegsführung

Einem Bericht der New York Times zufolge sind 70 Prozent der Toten und Verletzten im Ukraine-Krieg durch unbemannte Luftfahrzeuge verursacht worden. Die Möglichkeit, dieses tödliche Spektakel in den sozialen Medien zu verfolgen, verstärkt Faszination und Entsetzen.

Die tödliche Effektivität und die Möglichkeit, mit relativ billigem Gerät extrem teure Militärsysteme zu zerstören, nähren den Glauben an eine Drohnenrevolution in der Kriegsführung. Mit den frühen Erfolgen der Ukraine gegen den russischen Angriffskrieg nahm der Hype seinen Lauf: Trotz militärischer Unterlegenheit hatte sie mit Drohnen erfolgreich Panzer, Artilleriestellungen, Hubschrauber oder Züge bekämpft.

Doch wie häufig bei technischen Innovationen zog der Gegner schnell gleich. Heute nutzen beide Seiten größere Drohnen, um militärische Anlagen, Ölraffinerien, aber auch – zumindest im Falle von Russland – Wohnhäuser im jeweiligen Hinterland zu bekämpfen. Hunderte von großen Shahed-Drohnen fliegen nachts nach Kyiv, um die Luftabwehr zu überlasten, denn auch die wenigen, die durchkommen, zerstören Gebäude und Menschen.

An der Front selbst dominieren Quadrocopter und „First-Person-View“-Drohnen (FPV), die mit Datenbrille und GPS gesteuerte Soldaten angreifen oder teure Hightech-Panzer und Hubschrauber zerstören. Der Gegner versucht jeweils, die Datenübertragung mit elektromagnetischen Wellen zu stören. Deshalb werden nun Drohnen mit langen Glasfaserkabeln oder auch (teil-)autonome Drohnen genutzt.

Rüstungs-Start-up-Boom

In den letzten Jahren entstanden viele Drohnenproduzenten. Rüstungs-Start-ups schossen wie Pilze aus dem Boden. Deutsche Firmen wie Helsing oder Stark, die Tausende von Drohnen in die Ukraine liefern, wuchsen mithilfe von rechtskonservativen Investoren wie Peter Thiel in wenigen Jahren zu milliardenschweren Unternehmen. In Zeiten großer Rüstungspakete von NATO und EU winken hohe Gewinne.

Im EU-Weißbuch European Defence – Readiness 2030 vom März 2025 wird ein Wettlauf um die neueste Technik algorithmischer, KI-gestützter Kriegsführung ausgerufen. Man geht nicht nur von der „realen Perspektive eines vollumfänglichen Krieges“ aus, sondern wünscht sich ein „Ökosystem technologischer Innovation für die eigene Rüstungsindustrie“.

Die verheerenden Konsequenzen des CO₂‑Verbrauchs intensiver Aufrüstung und die Auswirkungen auf die Ökosysteme werden jedoch nicht thematisiert. Auch die enormen Mengen an Metallen und seltenen Erden, die die Rüstungsindustrie verbraucht, fehlen bei Windrädern und Solarpanels.

Im Aufwind des neuen europäischen Rüstungswettlaufs schlug Gundbert Scherf, CEO der Rüstungsfirma Helsing, jüngst die Installation eines Drohnenwalls aus Tausenden von Drohnen, Sensoren und Satelliten an der Ostflanke der NATO vor. Expert:innen bezweifeln, dass man eine Software für solche riesigen Schwärme in naher Zukunft entwickeln kann. Doch nur wenige Wochen später griff Kommissionspräsidentin Ursula von der Leyen die Idee ihres ehemaligen Rüstungsberaters aus Zeiten im Verteidigungsministerium auf.

Der Glaube an Drohnen sitzt tief

Für die Kriegsertüchtigung wird primär die doch recht spezifische Situation im Ukraine-Krieg anvisiert. Doch allmählich warnen selbst rüstungsfreundliche Kreise: „Man kann eine Speziallösung nicht generalisieren, sonst plant man den nächsten Krieg nach dem Vorbild des letzten und erliegt dabei der Täuschung, es ginge nur um Technologie“, schrieb Claudia Major, Mitglied im Beirat Innere Führung des Verteidigungsministeriums, jüngst im Spiegel.

Der Glaube an Drohnen und das Narrativ der technologischen Überlegenheit sitzen tief. Gleichzeitig hofft man, die eigenen desolaten Ökonomien durch die sich rasant entwickelnde KI- und Drohnenindustrie zu konsolidieren. Dennoch erstaunen die aktuelle Aufrüstungshysterie und der ungebrochene Drohnenhype.

Placeholder image-1

Denn die interessierte Zivilgesellschaft in Deutschland diskutiert seit Jahren über die völkerrechtlichen und ethischen Fragen der Entwicklung und des Einsatzes von bewaffneten und autonomen Drohnen.

Auch wenn der deutsche Sonderweg schon mit dem Jugoslawienkrieg aufgegeben wurde, blieb die Ausrüstung der Bundeswehr mit Angriffswaffen immer ein gesellschaftlich umkämpftes Terrain. Gerade die Grünen kritisierten lange die Anschaffung und Bewaffnung von Drohnen. Doch 2022 erlaubte die Ampelregierung – ohne parlamentarische Debatte – die Bewaffnung von ferngesteuerten, nicht-autonomen Drohnen.

Die Attacke könne jederzeit von Soldaten abgebrochen werden. Wirklich?

Im Frühjahr 2025 kündigte das Verteidigungsministerium die testweise Anschaffung autonomer Drohnen an, wieder ohne parlamentarische Beteiligung und mit wenig medialem Echo. Diese sogenannte Loitering Munition kann stundenlang am Himmel „hängen“, bevor sie sich auf ein Ziel stürzt.

Die Bundeswehr verhandelt die Technologie unter der Kategorie der Munition, um es sich mit ethischen und rechtlichen Fragen leichter zu machen. Es handelt sich vermutlich um die Kamikazedrohnen HX-2 von Helsing und die OWE-V von Stark. Und wieder versichern die Rüstungsfirmen eilfertig, dass bei den Systemen immer ein „Human-in-the-Loop“ sei und die Attacke von Soldat:innen jederzeit abgebrochen werden könne.

Allerdings liest man auf der Website der Firma Stark, dass die KI-unterstützte Software von Virtus in Echtzeit auf Veränderungen reagiere und das System „präzise Ziele in bis zu 100 km Entfernung aufklären und bekämpfen“ könne, auch in „signalarmen oder gestörten Einsatzumgebungen“. Ohne Funkkontakt zum Drohnenoperateur können aber nur autonome Drohnen Ziele bekämpfen. Der Algorithmus entscheidet dann möglicherweise über Leben und Tod.

Mensch oder Maschine

Völlig aus dem Blick geraten bei dieser Debatte weitere soziopolitische und ethische Problematiken. Schon teleoperierte Drohnen können allein durch ihre Präsenz massiven und permanenten Terror, aber auch auf Distanz Völkerstraftaten ausüben.

Ukrainische Soldaten beschreiben, wie der Krieg seltsam persönlich wird, wenn man von einer Drohne verfolgt wird, während sich teilweise Frauen und Kinder in Gaza nicht mehr auf die Straße trauen, weil auf sie via Drohnen mit Schnellfeuerwaffen geschossen wird.

Diese Probleme multiplizieren sich mit autonomen Systemen. Sie gelten zwar als schneller und weniger störanfällig – doch laut Genfer Konvention muss jede militärische Handlung einem Menschen zuschreibbar sein – und nicht einem Computerprogramm.

Auf künstlicher Intelligenz basierte (Drohnen-)Kriegsführung – und nichts anderes bedeuten autonome Drohnen – lässt sich von einem Soldaten beziehungsweise dem Human-in-the-Loop nicht wirklich qualitativ kontrollieren, ohne den erwünschten Vorteil der Maschinengeschwindigkeit zu verlieren.

In gewisser Weise wird Kriegsführung experimenteller

Ein Soldat kann auch nicht die Korrektheit der Software überprüfen – ob etwa die Trainingsdaten der Algorithmen adäquat und korrekt sind und wie sich das System durch dynamische Optimierungsprozesse verändert. Das gilt natürlich partiell auch für andere Systeme – aber im Zuge eines softwarebasierten Krieges gewinnt das an Bedeutung. In gewisser Weise wird Kriegsführung experimenteller, wenn man wie Helsing in der Ukraine eingesetzte Drohnen alle vierzehn Tage mit einem Update versieht.

Es ist fraglich, ob selbst die Softwareingenieur:innen die Konsequenzen immer kennen. Die Ukraine, Gaza oder auch der Sudan dienen heute auch als Testlabor für KI-gestützte Waffen, mit Soldat:innen und Zivilist:innen als Versuchskaninchen – auch wenn das nicht ausgesprochen wird.

Ende September 2025 betonte UN-Generalsekretär António Guterres in der Eröffnungsrede der Generalversammlung der Vereinten Nationen, dass Maschinen nicht über Leben und Tod entscheiden sollten. Start-ups beteuern immer wieder, sie würden die Demokratie verteidigen – was auch immer das bedeuten mag.

Völlig unklar bleibt, wie man bei autonomen, mit Hochgeschwindigkeit operierenden, KI-gestützten Systemen von einer menschlichen Kontrolle sprechen kann, die diesen Namen verdient. Mehr als 100, vor allem kleinere Staaten, haben sich der Forderung nach dem Bann autonomer Drohnen angeschlossen, während die großen geopolitischen Player versuchen, die Regulierung dieser Systeme bei Verhandlungen auf UN-Ebene in Genf hinauszuzögern oder zu verhindern.

Symbolpolitik statt verantwortlichem Handeln

Gleichzeitig zeigt die Aufregung über Drohnenüberflüge in Polen oder Rumänien sowie in der Nähe von Flughäfen wie in München, dass Drohnen auch im zivilen Bereich gefährlich werden können. Doch wenn man sofort weiß, wer die Schuldigen sind, selbst wenn die russischen Drohnen an der NATO-Flanke weder Kameras noch Waffen trugen, ist kein rationaler Diskurs zu erwarten. Bis heute gibt es kaum Fotos von den Drohnenüberflügen, und die wenigen gefassten Drohnenpiloten kommen aus Deutschland, der Ukraine und Belarus.

Populistisch fordert man lieber die Freigabe von Drohnen zum Abschuss durch Bundeswehr oder Polizei, trotz der Schäden, die in Polen durch einen Abschuss verursacht wurden. Dass es sich eher um Symbolpolitik als um verantwortliches Handeln handelt, wird deutlich, wenn man bedenkt, dass seit Jahren Drohnen unbekannter Herkunft über europäische Kernkraftwerke und Atommülllager fliegen.

2018 gab es in Frankreich über 20 solcher Vorfälle. In Bayern fliegen Drohnen gerne über Gefängnisse. Auch darauf folgten keine Maßnahmen zur Drohnenabwehr.

Stattdessen fährt man lieber zu Helsings neuem Standort nach Tussenhausen und zelebriert militärisch-toxische Männlichkeit via Joystick mit der Simulation des nächsten großen Versprechens namens Drohnenbomber.

Jutta Weber (Universität Paderborn) ist Leiterin des Forschungsprojekts „Meaningful Human Control – Autonome Waffensysteme zwischen Regulation und Reflexion“