Das Pentagon legt seine Pläne zur militärischen Nutzung Künstlicher Intelligenz vor.
2017 verkündete China die eigene KI-Strategie und investiert einem Bericht zufolge Dutzende Milliarden US-Dollar in Künstliche Intelligenz - auch in die militärische Nutzung. Das US-Verteidigungsministerium hat jetzt ebenfalls ein Strategiepapier vorgelegt, das unter anderem den Einsatz von KI im Kampf beschreibt.
KI-Unterstützung für Kernaufgaben im Militär
KI-Systeme sollen im gesamten Militär zum Einsatz kommen: Nachrichtendienste sollen mit KI effizienter Aufklärungsarbeit leisten, Kommandeure mit KI-gestützter Entscheidungsfindung bessere Befehle erteilen.
Automatische Gefahrenerkennung soll die Sicherheit der Ausrüstung erhöhen, zum Beispiel bei Flugzeugen oder Schiffen. Ziel sei es, die Risiken für Militärs und Zivilisten zu minimieren.
Auch die Logistik bekommt einen KI-Boost: Vorausschauende Wartung und automatisierte Geschäftsprozesse sollen alltägliche Prozesse effizienter gestalten.
Partnerschaft mit Privatsektor und Alliierten
Das Verteidigungsministerium fordert eine starke Kooperation zwischen Staat, KI-Firmen und Alliierten. Gemeinsam sollen neue KI-Anwendungen entwickelt und Antworten auf drängende Regulierungsfragen gefunden werden.
Diese Anwendungen sollen außerhalb der Kriegsführung für humanitäre Unterstützung und Katastrophenhilfe zum Einsatz kommen.
KI-Trainingsprogramme sollen Führungsrolle sichern
Das Verteidigungsministerium will der schnellen Fortentwicklung von KI-Technologie mit einer Talent- und Bildungsoffensive begegnen. KI-Experten sollen rekrutiert und aktuelle MitarbeiterInnen fortgebildet werden.
Auch die umstrittene „move fast and break things“-Mentalität des Silicon Valley soll Einzug ins Ministerium halten:
„Wir bauen eine Kultur auf, die angemessene Risikobereitschaft begrüßt und belohnt: schnelles Lernen durch frühes, schnelles Scheitern in kleinem Umfang“, heißt es im Papier.
Diese Maßgabe darf Anlass zur Sorge sein: Immerhin distanzieren sich Tech-Konzerne wie Facebook und Google gerade im Kontext Künstlicher Intelligenz von genau diesem Paradigma.
Die Begründung: Die potenziell weitläufigen Auswirkungen von Künstlicher Intelligenz verbieten den allzu leichtfertigen Umgang mit der Technologie. Sorgfalt schlägt bei KI den schnellen Fortschritt, da fehlerhafte Algorithmen schwer zu analysieren und kaum zu reparieren sind.
Führungsrolle bei KI-Ethik und KI-Sicherheit
Das Verteidigungsministerium sieht die USA bei der Kriegsethik in der Verantwortung: Es fordert KI-Prinzipien für den Militäreinsatz auf nationaler und internationaler Ebene. Diese Prinzipien sollen im Einklang mit dem Kriegsrecht den Einsatz und die Art zugelassener KI-Systeme regeln.
Als Beispiel nennen die Autoren die DOD Directive 3000.09 aus 2012: Diese beschreibt grundsätzliche Bedingungen für autonome Waffensysteme. Um Wahrscheinlichkeit und Konsequenzen fehlerhafter (semi)autonomer Waffensysteme zu minimieren, müsse immer ein Mensch die letzte Entscheidung über den Waffeneinsatz treffen.
Um KI-Systeme sicherer zu gestalten, will das Ministerium in KI-Sicherheitsforschung investieren. Geplante Forschungsfelder sind transparente Entscheidungen, Cyber Security, Verlässlichkeit und Neutralität.
Killerroboter werden nicht adressiert
Geht man nach dem Strategiepapier, dann gibt es derzeit keine konkreten Pläne für die Entwicklung tödlicher autonomer Waffensysteme. Allerdings: Das Papier bezieht sich womöglich nur auf derzeit technisch umsetzbare Anwendungen und solche, die nicht unter Geheimhaltung stehen.
Die USA, Russland und einige andere Länder blockierten erst kürzlich die Initiative der Vereinten Nationen, „Killerroboter“ zu verbieten. Die Begründung: Es sei zu früh, diese Systeme zu regulieren, weil sie noch nicht erfunden seien.