Inhalt
newsletter Newsletter

Die KI-Kommission zur nationalen Sicherheit der US-Regierung empfiehlt Regulierung und Kooperation statt eines Verbots autonomer Waffen.

Die Gründung der "National Security Commission on Artificial Intelligence" (NSCAI) wurde im August 2018 beschlossen. Sie soll "Methoden und Mittel prüfen, die notwendig sind, um die Entwicklung von Künstlicher Intelligenz, maschinellem Lernen und damit verbundenen Technologien voranzutreiben, um die nationalen Sicherheits- und Verteidigungsbedürfnisse der Vereinigten Staaten umfassend zu erfüllen."

Vorsitzender der NSCAI ist der ehemalige Google-CEO Eric Schmidt. Zu den weiteren Mitgliedern gehören Forscher verschiedener Disziplinen, Angestellte von Microsoft, Amazon, Google und Oracle, Verteidigungsexperten und Nachrichtendienstmitarbeiter.

Der Abschlussbericht der Kommission soll am 01. März erscheinen. Ein finaler Entwurf des 130 Seiten starken Berichts ist bereits verfügbar. Die Kernbotschaft: Künstliche Intelligenz ist Möglichkeit und Bedrohung zugleich, ein Verbot von KI-Waffen ist schwer durchsetzbar - und nicht im Interesse der USA.

Anzeige
Anzeige

Die Entwicklung autonomer Waffen als moralischer Imperativ

Robert Work, ehemaliger stellvertretender Verteidigungsminister und stellvertretender Vorsitzender der Kommission, sagt in der Vorstellung der Arbeit der Kommission, autonome Waffen würden voraussichtlich weniger Fehler als Menschen begehen, was zu weniger Verlusten auf beiden Seiten führen könne. "Es ist ein moralischer Imperativ, diese Hypothese zumindest zu verfolgen", so Work.

Dennoch sollen weiter Menschen die Kontrolle über Waffen behalten – die Kommission spricht sich deutlich gegen ein autonomes System aus, das nukleare Waffen kontrolliert. Ob das auch für andere Formen autonomer Waffen wie herumlungernde Munition gilt, ist unklar.

Autonome Waffen als strategische Bedrohung

Vollautonome Systeme stellen eine strategische Bedrohung dar, so die Kommission. In der Diskussion unterscheidet die NSCAI vier solcher Bedrohungen:

  • Staaten könnten die Kontrolle über wichtige strategische Waffensysteme wie Nuklearwaffen abgeben.

Die USA müssten deutlich und öffentlich die bestehende Richtlinie bekräftigen, dass nur Menschen den Einsatz von Atomwaffen autorisieren können, empfiehlt die Kommission. Nur so könne man unbeabsichtigte nukleare Konflikte durch KI-Startbefehle verhindern. Ähnliche Verpflichtungen müssten von Russland und China eingeholt werden.

  • KI-Waffen könnten sich global und unreguliert ausbreiten.

Es brauche finanzielle Unterstützung für die Entwicklung technischer Mittel, mit denen die Einhaltung zukünftiger KI-Rüstungsabkommen überprüft und die Verbreitung von KI-Waffen verhindert werden kann. Die Kommission empfiehlt, entsprechende Mittel auch mit Russland und China zu teilen.

Empfehlung
  • Schlecht konzipierte oder unsachgemäß genutzte KI-Waffen könnten sich unvorhersehbar verhalten.

Die USA müsse internationale Standards für die Entwicklung und die Nutzung autonomer Waffensysteme fördern. Hier sieht die Kommission die Kooperation mit US-Verbündeten als Chance für die Standardsuche.

  • KI-Waffen könnten ungewollt Konflikte eskalieren.

Die Kommission empfiehlt, die Auswirkungen von KI auf die Krisenstabilität in den bestehenden strategischen Sicherheitsdialog zwischen den USA und Russland zu integrieren. Es müsse außerdem ein entsprechender Dialog mit China aufgebaut werden. Das soll das Verständnis der jeweiligen Doktrin fördern und helfen, vertrauensbildende Maßnahmen zu entwickeln.

Kein Verbot, aber Kontrolle und Dialog

Die Ergebnisse des Berichts sind keine Überraschung: Die USA sehen in Künstlicher Intelligenz eine Bedrohung ihrer nationalen Sicherheit, sobald sie in die Hand anderer Weltmächte wie Russland, China oder nicht-staatlicher Akteure wie Terrororganisationen gerät.

Die Kommission weist in diesem Kontext auf den jüngsten Einsatz türkischer Drohnen und israelischer herumlungernder Munition in Aserbaidschan hin. Kurz: Für ein Verbot von KI-gestützten Waffen ist es zu spät. Jetzt hilft nur noch Regulierung und Kooperation mit staatlichen Akteuren.

Anzeige
Community beitreten
Kommt in die DECODER-Community bei Discord,Reddit, Twitter und Co. - wir freuen uns auf euch!
Anzeige
Community beitreten
Kommt in die DECODER-Community bei Discord,Reddit, Twitter und Co. - wir freuen uns auf euch!

Die Kommission erteilt einem Verbot von „Killerrobotern“ eine klare Absage, obwohl dieses von verschiedenen Nichtregierungsorganisationen und knapp dreißig Ländern explizit gefordert wird. Ein Expertengremium für autonome Waffen der Vereinten Nationen diskutiert seit 2014 regelmäßig über ein mögliches Verbot von tödlichen autonomen Waffen – bisher ergebnislos. Neben den USA sprachen sich in den Verhandlungen auch Russland und China gegen ein Verbot aus.

Mary Wareham koordiniert seit mehr als acht Jahren eine Kampagne für das Verbot von Killerrobotern. Sie kritisierte den Fokus der Kommission auf Vergleiche zwischen den USA, China und Russland mit Blick auf die Investitionen. Das fördere das KI-Wettrüsten.

Via: NSCAI Draft Final Report, Reuters

Weiterlesen über KI im Militär:

Unterstütze unsere unabhängige, frei zugängliche Berichterstattung. Jeder Betrag hilft und sichert unsere Zukunft. Jetzt unterstützen:
Banküberweisung
Max ist leitender Redakteur bei THE DECODER. Als studierter Philosoph beschäftigt er sich mit dem Bewusstsein, KI und der Frage, ob Maschinen wirklich denken können oder nur so tun als ob.
Community beitreten
Kommt in die DECODER-Community bei Discord,Reddit, Twitter und Co. - wir freuen uns auf euch!