Inhalt
newsletter Newsletter

Das Pentagon übernimmt neue ethische Richtlinien, die den Einsatz von KI-Systemen im US-Militär regulieren sollen.

Anzeige

Im November 2019 stellte das "Defense Innovation Board" des Pentagon eine erste Version ethischer Richtlinien für den Einsatz militärischer und ziviler KI-Anwendungen im US-Militär vor. Die Richtlinien folgen fünf Prinzipien:

  • Der Mensch soll für Entwicklung, Verbreitung, Einsatz und Ergebnisse der KI verantwortlich sein.
  • Jede KI-Anwendung soll fair bleiben, daher müssen Vorurteile in den Daten vermieden werden.
  • Transparente und überprüfbare Methoden, Datenquellen, Designverfahren und Dokumentation sollen sicherstellen, dass beteiligte Mitarbeiter ein Verständnis für die KI-Systeme entwickeln und deren Entscheidungen rückverfolgbar sind.
  • Alle Einsatzbereiche für KI sollen klar definiert und getestet werden und verlässlich, sicher und robust funktionieren.
  • Alle KI-Systeme sollen steuerbar bleiben – und im Notfall abschaltbar sein. Unbeabsichtigtes Verhalten soll so erkannt und verhindert werden.

In Zukunft sollen KI-Systeme in allen Waffengattungen eingesetzt werden, etwa für Nachrichtendienste und Überwachungsoperationen oder zur Vorhersage von Wartungsproblemen bei Flugzeugen oder Schiffen.

Seit 2012 existiert zwar eine Richtlinie gegen den Einsatz automatisierter Waffensysteme im US-Militär – doch die umfasst nicht alle möglichen Anwendungsbereiche von KI-Systemen. Ein klares Nein zu tödlichen, vollständig autonomen Waffensystemen ("LAWS") sieht anders aus.

Anzeige
Anzeige

Ethics-Washing oder notwendige Flexibiltät?

Die Richtlinien sollen dafür sorgen, dass alle Beteiligten beim Umgang mit Künstlicher Intelligenz "ein angemessenes Maß an Urteilsvermögen und Sorgfalt walten lassen".

Bei Lucy Suchman, einer Anthropologin, die die Rolle der KI in der Kriegsführung untersucht, stößt das auf Skepsis: "Ich befürchte, dass die Prinzipien Ethics-Washing sind. Das Wort angemessen ist offen für viele Interpretationen."

US-Generalleutnant Jack Shanahan, Chef der KI-Einheit des US-Militärs, sieht in der Offenheit der Richtlinien dagegen einen Vorteil. Einschränkungen, die in ein paar Jahren überholt sein könnten, sollen vermieden werden. "Technik passt sich an. Technik entwickelt sich weiter", so Shanahan. Oder anders gesagt: Das US-Militär will keine Türen schließen, die zu einem späteren Zeitpunkt womöglich schwierig zu öffnen sind.

Der Generalleutnant äußerte jedoch im letzten Dezember, dass er entschieden eintrete gegen "unüberwachte, unabhängige selbstzielende Systeme, die Entscheidungen über Leben und Tod treffen" - auch Killerroboter genannt.

Shanahan geht außerdem davon aus, dass bei einem möglichen Konflikt zwischen den USA und China KI eine zentrale Rolle spielen wird: "In 20 Jahren treten Algorithmen gegeneinander an."

Empfehlung

Quelle: APNews

Anzeige
Anzeige
Community beitreten
Kommt in die DECODER-Community bei Discord,Reddit, Twitter und Co. - wir freuen uns auf euch!

Weiterlesen über Künstliche Intelligenz:

Unterstütze unsere unabhängige, frei zugängliche Berichterstattung. Jeder Betrag hilft und sichert unsere Zukunft. Jetzt unterstützen:
Banküberweisung
Max ist leitender Redakteur bei THE DECODER. Als studierter Philosoph beschäftigt er sich mit dem Bewusstsein, KI und der Frage, ob Maschinen wirklich denken können oder nur so tun als ob.
Community beitreten
Kommt in die DECODER-Community bei Discord,Reddit, Twitter und Co. - wir freuen uns auf euch!