Inhalt
newsletter Newsletter

Das Pentagon legt seine Pläne zur militärischen Nutzung Künstlicher Intelligenz vor.

2017 verkündete China die eigene KI-Strategie und investiert einem Bericht zufolge Dutzende Milliarden US-Dollar in Künstliche Intelligenz - auch in die militärische Nutzung. Das US-Verteidigungsministerium hat jetzt ebenfalls ein Strategiepapier vorgelegt, das unter anderem den Einsatz von KI im Kampf beschreibt.

KI-Unterstützung für Kernaufgaben im Militär

KI-Systeme sollen im gesamten Militär zum Einsatz kommen: Nachrichtendienste sollen mit KI effizienter Aufklärungsarbeit leisten, Kommandeure mit KI-gestützter Entscheidungsfindung bessere Befehle erteilen.

Automatische Gefahrenerkennung soll die Sicherheit der Ausrüstung erhöhen, zum Beispiel bei Flugzeugen oder Schiffen. Ziel sei es, die Risiken für Militärs und Zivilisten zu minimieren.

Anzeige
Anzeige

Auch die Logistik bekommt einen KI-Boost: Vorausschauende Wartung und automatisierte Geschäftsprozesse sollen alltägliche Prozesse effizienter gestalten.

Partnerschaft mit Privatsektor und Alliierten

Das Verteidigungsministerium fordert eine starke Kooperation zwischen Staat, KI-Firmen und Alliierten. Gemeinsam sollen neue KI-Anwendungen entwickelt und Antworten auf drängende Regulierungsfragen gefunden werden.

Diese Anwendungen sollen außerhalb der Kriegsführung für humanitäre Unterstützung und Katastrophenhilfe zum Einsatz kommen.

KI-Trainingsprogramme sollen Führungsrolle sichern

Das Verteidigungsministerium will der schnellen Fortentwicklung von KI-Technologie mit einer Talent- und Bildungsoffensive begegnen. KI-Experten sollen rekrutiert und aktuelle MitarbeiterInnen fortgebildet werden.

Auch die umstrittene „move fast and break things“-Mentalität des Silicon Valley soll Einzug ins Ministerium halten:

Empfehlung

„Wir bauen eine Kultur auf, die angemessene Risikobereitschaft begrüßt und belohnt: schnelles Lernen durch frühes, schnelles Scheitern in kleinem Umfang“, heißt es im Papier.

Diese Maßgabe darf Anlass zur Sorge sein: Immerhin distanzieren sich Tech-Konzerne wie Facebook und Google gerade im Kontext Künstlicher Intelligenz von genau diesem Paradigma.

Die Begründung: Die potenziell weitläufigen Auswirkungen von Künstlicher Intelligenz verbieten den allzu leichtfertigen Umgang mit der Technologie. Sorgfalt schlägt bei KI den schnellen Fortschritt, da fehlerhafte Algorithmen schwer zu analysieren und kaum zu reparieren sind.

Führungsrolle bei KI-Ethik und KI-Sicherheit

Das Verteidigungsministerium sieht die USA bei der Kriegsethik in der Verantwortung: Es fordert KI-Prinzipien für den Militäreinsatz auf nationaler und internationaler Ebene. Diese Prinzipien sollen im Einklang mit dem Kriegsrecht den Einsatz und die Art zugelassener KI-Systeme regeln.

Anzeige
Community beitreten
Kommt in die DECODER-Community bei Discord,Reddit, Twitter und Co. - wir freuen uns auf euch!
Anzeige
Community beitreten
Kommt in die DECODER-Community bei Discord,Reddit, Twitter und Co. - wir freuen uns auf euch!

Als Beispiel nennen die Autoren die DOD Directive 3000.09 aus 2012: Diese beschreibt grundsätzliche Bedingungen für autonome Waffensysteme. Um Wahrscheinlichkeit und Konsequenzen fehlerhafter (semi)autonomer Waffensysteme zu minimieren, müsse immer ein Mensch die letzte Entscheidung über den Waffeneinsatz treffen.

Um KI-Systeme sicherer zu gestalten, will das Ministerium in KI-Sicherheitsforschung investieren. Geplante Forschungsfelder sind transparente Entscheidungen, Cyber Security, Verlässlichkeit und Neutralität.

Killerroboter werden nicht adressiert

Geht man nach dem Strategiepapier, dann gibt es derzeit keine konkreten Pläne für die Entwicklung tödlicher autonomer Waffensysteme. Allerdings: Das Papier bezieht sich womöglich nur auf derzeit technisch umsetzbare Anwendungen und solche, die nicht unter Geheimhaltung stehen.

Die USA, Russland und einige andere Länder blockierten erst kürzlich die Initiative der Vereinten Nationen, „Killerroboter“ zu verbieten. Die Begründung: Es sei zu früh, diese Systeme zu regulieren, weil sie noch nicht erfunden seien.

Weiterlesen über Künstliche Intelligenz

Unterstütze unsere unabhängige, frei zugängliche Berichterstattung. Jeder Betrag hilft und sichert unsere Zukunft. Jetzt unterstützen:
Banküberweisung
Max ist leitender Redakteur bei THE DECODER. Als studierter Philosoph beschäftigt er sich mit dem Bewusstsein, KI und der Frage, ob Maschinen wirklich denken können oder nur so tun als ob.
Community beitreten
Kommt in die DECODER-Community bei Discord,Reddit, Twitter und Co. - wir freuen uns auf euch!