Inhalt
newsletter Newsletter

Das Pentagon stellt fünf ethische Richtlinien für Künstliche Intelligenz vor, die dem US-Militär als Orientierungshilfe dienen sollen. Ob das gelingt, steht auf einem anderen Blatt.

Das "Defense Innovation Board" des Pentagon hat eine vorläufige Version ethischer Richtlinien für den Umgang mit Künstlicher Intelligenz im militärischen Einsatz vorgestellt. In dem Papier heißt es, dass KI den Charakter des Krieges verändern und im gesamten Militär relevant würde. Entsprechend wichtig sei es für die USA, eine technologische Vormachtstellung zu erreichen und zu behaupten.

Die Richtlinien selbst bergen keine Überraschungen: Sie enthalten die gleichen Annahmen und Aussagen, die sich auch in den mittlerweile zahlreich vorhandenen KI-Richtlinien anderer Staaten, von Unternehmen und Organisationen wiederfinden.

  • Der Mensch soll verantwortlich bleiben für die Entwicklung, die Verbreitung, den Einsatz und die Ergebnisse von KI sowie ein "angemessenes Ausmaß an Beurteilung" ausüben.
  • KI soll fair sein, daher müssten "ungewollte Vorurteile" in Daten vermieden werden. Das gelte sowohl bei KI-Systemen für den Kampfeinsatz als auch außerhalb von Einsätzen.
  • Die Künstliche-Intelligenz-Spezialisten des Verteidigungsministeriums sollten ein "angemessenes Verständnis" für KI-Systeme haben, sodass diese rückverfolgbar sind.
  • Einsatzbereiche für KI sollen klar definiert und getestet werden. In diesen müsse die Technologie verlässlich, sicher und robust funktionieren.
  • Militärische KI soll so entwickelt werden, dass sie steuerbar bleibt, nur beabsichtigte Funktionen ausführt und im gleichen Moment unbeabsichtigten Schaden oder Störungen erkennen und unterbrechen oder deaktivieren kann.

KI für das Militär: Entscheidende Fragen sind noch nicht geklärt

Grundsätzlich heißt es in dem Entwurf, KI müsse der "Wahrung und Förderung demokratischer Prinzipien" dienen und in Zusammenarbeit mit den Alliierten den internationalen Frieden wahren.

Anzeige
Anzeige

Offen lassen die vagen Formulierungen viele Fragen, zuvorderst ob eine Maschine entscheiden darf, einen Menschen zu töten oder nicht. In dem Papier wird durchaus eingeräumt, dass der Mensch "aufgrund des Umfangs der Interaktionen, der Zeit und der Kosten" nicht jede KI-Entscheidung kontrollieren und freigeben könne, auch wenn er die Gesamtverantwortung für das System trage.

Und wie ist mit der Dynamik umzugehen, die entstehen könnte, wenn KI-Systeme gegeneinander antreten - und ein langsamer Mensch in der Befehlskette die sichere Niederlage bedeutet?

Unabhängig jeder Intention stellt sich die Frage nach der technischen Umsetzbarkeit der Richtlinien, zum Beispiel bei der Zusammenstellung vorurteilsfreier Daten für das KI-Training oder der Steuerbarkeit von KI-Systemen, deren innere Komplexität die menschliche Logik überfordert.

Titelbild: David Mark from Pixabay

Anzeige
Community beitreten
Kommt in die DECODER-Community bei Discord,Reddit, Twitter und Co. - wir freuen uns auf euch!
Anzeige
Community beitreten
Kommt in die DECODER-Community bei Discord,Reddit, Twitter und Co. - wir freuen uns auf euch!

Weiterlesen über KI und Krieg:

Unterstütze unsere unabhängige, frei zugängliche Berichterstattung. Jeder Betrag hilft und sichert unsere Zukunft. Jetzt unterstützen:
Banküberweisung
Online-Journalist Matthias ist Gründer und Herausgeber von THE DECODER. Er ist davon überzeugt, dass Künstliche Intelligenz die Beziehung zwischen Mensch und Computer grundlegend verändern wird.
Community beitreten
Kommt in die DECODER-Community bei Discord,Reddit, Twitter und Co. - wir freuen uns auf euch!