Killerroboter oder KI-Helfer: Über Künstliche Intelligenz in der Kriegsführung und wie sie in den Krieg verändert.
Es gibt vier wesentliche Anwendungsbereiche für KI-Technologie im Militär: Logistik, Aufklärung, Cyberraum und Kriegsführung.
In den ersten drei Bereichen sind moderne KI-Anwendungen bereits im Einsatz oder werden getestet. KI hilft, Logistikketten zu optimieren, notwendige Wartungen vorherzusagen, Schwachstellen in Software zu finden und riesige Datenmengen zu verwertbaren Informationen zusammenzuführen.
Künstliche Intelligenz hat daher schon jetzt eine Auswirkung auf militärische Operationen. Doch der Kampf selbst wird noch immer primär von Menschen ausgeführt.
Die dritte Revolution in der Kriegsführung
Ein Vorbote KI-gestützter Kriegsführung ist die wachsende Anzahl ferngesteuerter Drohnen in Konfliktgebieten überall auf der Welt: Zwischen 2009 und 2017 nahm die Zahl amerikanischer Soldaten im Kampfeinsatz um 90 Prozent ab und die Zahl der US-Drohnenschläge stieg um das Zehnfache. Heute fliegen amerikanische, russische, israelische, chinesische, iranische und türkische Drohnen Angriffe im Nahen Osten, auf dem afrikanischen Kontinent, in Südostasien und in Europa.
Viele Drohnen verfügen bereits über teil-autonome Fähigkeiten. Völlig autonome Drohnen, die ihre Ziele selbstständig identifizieren und angreifen, sind eine realistische Möglichkeit, und einem UN-Bericht zufolge könnten sie bereits eingesetzt worden sein.
Solche Systeme sind ein Beispiel für tödliche autonome Waffensysteme ("Lethal Autonomous Weapon Systems" – LAWS). Es gibt internationale Bemühungen, sie stark zu regulieren oder komplett zu verbieten. Da sie allerdings einen Krieg entscheiden könnten, sträuben sich besonders die großen Militärmächte gegen ein Verbot.
Denn autonome Waffen gelten als die dritte Revolution in der Kriegsführung nach der Erfindung der Atombombe und des Schießpulvers. Sie haben die gleiche Kapazität, das Mächtegleichgewicht zu ändern.
Der Verzicht auf den Einsatz von moderner KI-Technologie in Waffensystemen sei mit einem Verzicht auf Elektrizität und Verbrennungsmotoren zu vergleichen, sagt Paul Scharre, ehemaliger Soldat, Berater des US-Verteidigungsministeriums und Autor von "Army of None: Autonomous Weapons and the Future of War" (Amazon-Link).
KI im Krieg: Autonomie in drei Stufen und herumlungernde Munition
Doch nicht alle autonomen Waffensysteme sind Killerroboter. Die Autonomie von Waffensystemen kann grob in drei Stufen kategorisiert werden:
- Semi-autonome Waffensysteme (Human in the loop)
- Überwachte autonome Waffensysteme (Human on the loop)
- Komplett autonome Waffensysteme (Human out of the loop)
Ein Beispiel für semiautonome Waffensysteme sind "Fire and Forget"-Raketen, die nach Abschuss durch einen Menschen selbstständig ein zuvor bestimmtes Ziel angreifen. Das erlaubt Piloten, mehrere Ziele kurz hintereinander anzugreifen. Die Raketen werden weltweit von Militärs in der Bekämpfung von Luft- und Bodenzielen eingesetzt.
Überwachte autonome Waffensysteme waren traditionell eher defensiv ausgerichtet und kommen überall dort zum Einsatz, wo die menschliche Reaktionszeit mit der Geschwindigkeit des Gefechts nicht mithalten kann.
Einmal von einem Menschen aktiviert, greifen sie selbstständig Ziele an – allerdings unter konstanter menschlicher Überwachung. Beispiele sind das auf Marineschiffen eingesetzte Aegis-Kampfsystem, das nach Aktivierung selbständig Raketen, Helikopter und Flugzeuge angreift oder die Raketenabwehrsysteme Patriot und Iron Dome. Über 30 Staaten setzten bereits solche Systeme ein, sagt Scharre.
Doch mit der Entwicklung der neuen Waffengattung der "herumlungernden Munition" (Loitering Munition) hat sich das geändert: Diese mit Sprengköpfen beladenen Flugdrohnen verfügen über autonome Fähigkeiten und werden von einem Menschen programmiert, bestimmte Ziele anzugreifen. Dieser Angriff kann vom Menschen abgebrochen werden. Sie können Truppen Luftunterstützung geben, ohne Kampfflugzeuge oder -helikopter in Gefahr zu bringen.
Solche Drohnen verwischen die Grenze zwischen überwachten und komplett autonomen Waffensystemen und sind seit mindestens einer Dekade im Einsatz. Zu den verbreiteten Systemen gehören etwa die israelische Harop, die amerikanische Switchblade, die russische Lancet oder die iranische Shahed. Ihre Wirkung im Bergkarabachkonflikt und im Ukrainekrieg veranlasst manche Militärexperten, den durch moderne Technologien möglichen Grad an Autonomie als Teil der Abschreckung zu sehen.
So sieht etwa der ehemalige taiwanesische Generalstabschef, ehemalige Vizeminister für nationale Verteidigung und Befehlshaber der taiwanesischen Marine, Admiral Lee Hsi-ming, herumlungernde Munition als elementar für die militärische Fähigkeit Taiwans, einen möglichen chinesischen Eroberungskrieg zu verhindern.
Der Stand bei autonomen Kriegsmaschinen
Komplett autonome Waffensysteme betreibt offiziell bisher kein Militär. Diese komplett autonome Kriegsmaschinerie ist (noch) nur eine Dystopie der KI-gestützten Kriegsführung.
Dass entsprechende Kriegsgeräte noch nicht eingesetzt werden, hat technisch betrachtet vorwiegend einen Grund: Die benötigte KI-Technologie existiert noch nicht. Der Machine-Learning-Boom der letzten Dekade hat zwar unzählige Fortschritte in der KI-Forschung hervorgebracht, aber aktuelle KI-Systeme sind nicht für den professionellen militärischen Einsatz geeignet.
Sie versprechen in der Theorie zwar Präzision, Verlässlichkeit und eine hohe Reaktionsgeschwindigkeit. Doch in der Praxis scheitern sie noch immer an der Komplexität der echten Welt. Die KI-Systeme verstehen keinen Kontext, kommen nicht mit sich ändernden Umständen zurecht, sind anfällig für Angriffe und schon gar nicht dafür geeignet, ethische Entscheidungen über Leben und Tod zu treffen. Aus den gleichen Gründen fährt trotz massiver Investitionen und großer Versprechen auch 2022 noch kein autonomes Auto souverän über unsere Straßen.
Zudem haben sich die NATO und die USA zwar für die Entwicklung und den Einsatz von autonomen Systemen ausgesprochen, wollen aber über überwachte autonome Waffensysteme nicht hinaus gehen - Menschen sollen die Kontrolle über die Systeme behalten. Doch auch dafür benötigt es zuverlässige KI-Systeme. Die Forschungsabteilung des US-Militärs DARPA fördert entsprechende Entwicklungen mit Milliarden US-Dollar.
Doch was genau ist Kontrolle? Wo die Grenze genau verläuft, ist nicht immer klar - reicht es, dass ein Mensch ein Waffensystem startet, das dann selbstständig tötet. Muss er es auch wieder ausschalten können? Was ist mit Situationen, in denen menschliche Entscheidungsgeschwindigkeiten nicht mehr ausreichen?
Mensch-Maschine-Kooperation in der Luft
Aktuell liegt der Fokus von Militär und Rüstungskonzernen primär in der Fusion verschiedener Sensordaten und der Entwicklung von Systemen, die mit Menschen kooperieren. Der Fokus des US-Militärs läge auf der kognitiven Assistenz in der gemeinsamen Kriegsführung, sagt JAIC-Chef Nan Mulchandani.
Manche dieser Systeme sollen eigenständig fliegen, fahren, tauchen, Informationen sammeln, festgelegte Ziele selbstständig angreifen oder Nachschub liefern. Aber ihre Aufgaben, Ziele und Freigaben bekommen sie immer von einem Menschen.
Die US Air Force testete etwa im Rahmen des "Skyborg-Programms Varianten der XQ-58A-Drohne von Kratos. Die Stealth-Drohnen sollen günstig sein und an der Seite eines menschlichen Piloten fliegen, von ihm Befehle entgegennehmen, aufklären, Ziele bekämpfen und ihn verteidigen. Das Programm ist seit 2021 als geheim eingestuft, doch bis zu ein Dutzend der Drohnen sollen im Frühjahr 2023 einsatzbereit sind. Die US Navy entwickelt derweil autonome Tankflugzeuge basierend auf der MQ-25A-Stingray-Drohne.
Auch Boeing hat eine Loyal-Wingman-Drohne entwickelt und verkauft sie an die australische Luftwaffe (RUAF). Die russische Luftwaffe setzt dagegen auf die größere S-70-Okhotnik-Drohne, die chinesische Luftwaffe auf die FH-97A.
Die Drohnen sollen im Kampfeinsatz meist zentral von einem Next-Generation-Fighter (NGF) von einem menschlichen Pilot gesteuert werden. Der wiederum wird an Board unterstützt von einem KI-Co-Piloten. Das reduziert Latenzen in der Kommunikation.
In Europa ist die Entwicklung einer autonome Begleiterdrohne als Remote Carrier (RC) im Next Generation Weapon System (NGWS) Programm des NGF-Programms von Frankreich, Deutschland und Spanien geplant. Ein zweites Programm in Europa läuft unter dem Namen Tempest und wird von England, Italien und Japan finanziert.
KI-Drohnen im Wasser und an Land
Auch im Wasser sollen Drohnen Menschen unterstützen: Beispiele sind semiautonome Schiffen wie der US-Navy-Zerstörer Sea Hunter, das Orca-U-Boot von Boeing oder die simplen Drohnenboote, die in der Ukraine die russischen Marine angreifen.
Für den Einsatz am Boden entwickeln Rüstungsunternehmen verschiedene Waffen wie die Kampfdrohne Ripsaw M5, die Panzer der US Army begleiten soll, oder den russischen Uran-9-Panzer, der bereits – wohl wenig effektiv – in Syrien eingesetzt wurde. Die US-Infanterie operiert mit winzigen Aufklärungsdrohnen mit Wärmebildkameras, die US Air Force testet den teilautonomen Roboterhund von Ghost Robotics.
Im Ukrainekrieg zeigt sich zudem, welche zentrale Rolle die Aufklärung per Drohnen und Kommunikation zwischen Drohnen-Operator, Artillerie und Infanterie spielt. Die so gewonnene Präzision erlaubte der Ukraine, den russischen Vorstoß effektiv aufzuhalten.
Die tieffliegende und günstige Aufklärung erfolgt noch über menschliche Augen, doch die Ukraine trainiert laut eines ukrainischen Drohnensoldats neuronale Netze mit den vorhandenen Aufnahmen. Die Drohnen sollen so russische Soldaten und Fahrzeuge automatisch erkennen und den OODA-Loop (Observe, Orient, Decide, Act) drastisch beschleunigen.
Künstliche Intelligenz im Cyberraum und zukünftigen Konflikten
Abseits des realen Kriegsgeschehens wird KI vermehrt im Cyberraum eingesetzt. Dort kann sie helfen, Malware aufzuspüren oder Muster bei Cyberangriffen auf kritische Infrastrukturen erkennen.
Ende 2022 testete die NATO KI für die Cyberverteidigung: Sechs Teams hatten die Aufgabe, Computersysteme und Stromnetze in einer fiktiven Militärbasis einzurichten und während eines simulierten Cyberangriffs am Laufen zu halten.
Drei der Teams erhielten Zugang zu einem Prototyp eines Autonomous Intelligence Cyberdefense Agent (AICA), der vom Argonne National Laboratory des US-Energieministeriums entwickelt wurde. Der Test zeigte, dass AICA half, Beziehungen zwischen Angriffsmustern, Netzwerkverkehr und Zielsystemen besser zu verstehen und zu schützen, so Cybersicherheits-Experte Benjamin Blakely, der das Experiment mit leitete.
Ob Cybersicherheit, kognitive Assistenz, Sensorfusion, herumlungernde Munition oder bewaffnete Roboterhunde: Künstliche Intelligenz verändert bereits jetzt das Schlachtfeld. Die Effekte werden in kommenden Jahren noch zunehmen, wenn Fortschritte in der Robotik, der Entwicklung von Weltmodellen oder KI-gestützte Materialwissenschaften und Fertigungstechniken neue Waffensysteme ermöglichen.
Auch LAWS werden wohl ein Teil dieser Zukunft sein, zumindest deutet darauf ein Regulierungsvorschlag mit dem Titel „Principles and Good Practices on Emerging Technologies in the Area of Lethal Autonomous Weapons Systems“ (Download) hin. Er wurde im März 2022 von Australien, Kanada, Japan, der Republik Korea, dem Vereinigten Königreich und den Vereinigten Staaten der UN vorgelegt.