KI-Ethik: So will das US-Militär Künstliche Intelligenz einsetzen
Das Pentagon übernimmt neue ethische Richtlinien, die den Einsatz von KI-Systemen im US-Militär regulieren sollen.
Im November 2019 stellte das "Defense Innovation Board" des Pentagon eine erste Version ethischer Richtlinien für den Einsatz militärischer und ziviler KI-Anwendungen im US-Militär vor. Die Richtlinien folgen fünf Prinzipien:
- Der Mensch soll für Entwicklung, Verbreitung, Einsatz und Ergebnisse der KI verantwortlich sein.
- Jede KI-Anwendung soll fair bleiben, daher müssen Vorurteile in den Daten vermieden werden.
- Transparente und überprüfbare Methoden, Datenquellen, Designverfahren und Dokumentation sollen sicherstellen, dass beteiligte Mitarbeiter ein Verständnis für die KI-Systeme entwickeln und deren Entscheidungen rückverfolgbar sind.
- Alle Einsatzbereiche für KI sollen klar definiert und getestet werden und verlässlich, sicher und robust funktionieren.
- Alle KI-Systeme sollen steuerbar bleiben – und im Notfall abschaltbar sein. Unbeabsichtigtes Verhalten soll so erkannt und verhindert werden.
In Zukunft sollen KI-Systeme in allen Waffengattungen eingesetzt werden, etwa für Nachrichtendienste und Überwachungsoperationen oder zur Vorhersage von Wartungsproblemen bei Flugzeugen oder Schiffen.
Seit 2012 existiert zwar eine Richtlinie gegen den Einsatz automatisierter Waffensysteme im US-Militär – doch die umfasst nicht alle möglichen Anwendungsbereiche von KI-Systemen. Ein klares Nein zu tödlichen, vollständig autonomen Waffensystemen ("LAWS") sieht anders aus.
Ethics-Washing oder notwendige Flexibiltät?
Die Richtlinien sollen dafür sorgen, dass alle Beteiligten beim Umgang mit Künstlicher Intelligenz "ein angemessenes Maß an Urteilsvermögen und Sorgfalt walten lassen".
Bei Lucy Suchman, einer Anthropologin, die die Rolle der KI in der Kriegsführung untersucht, stößt das auf Skepsis: "Ich befürchte, dass die Prinzipien Ethics-Washing sind. Das Wort angemessen ist offen für viele Interpretationen."
US-Generalleutnant Jack Shanahan, Chef der KI-Einheit des US-Militärs, sieht in der Offenheit der Richtlinien dagegen einen Vorteil. Einschränkungen, die in ein paar Jahren überholt sein könnten, sollen vermieden werden. "Technik passt sich an. Technik entwickelt sich weiter", so Shanahan. Oder anders gesagt: Das US-Militär will keine Türen schließen, die zu einem späteren Zeitpunkt womöglich schwierig zu öffnen sind.
Der Generalleutnant äußerte jedoch im letzten Dezember, dass er entschieden eintrete gegen "unüberwachte, unabhängige selbstzielende Systeme, die Entscheidungen über Leben und Tod treffen" - auch Killerroboter genannt.
Shanahan geht außerdem davon aus, dass bei einem möglichen Konflikt zwischen den USA und China KI eine zentrale Rolle spielen wird: "In 20 Jahren treten Algorithmen gegeneinander an."
Quelle: APNews
KI-News ohne Hype – von Menschen kuratiert
Mit dem THE‑DECODER‑Abo liest du werbefrei und wirst Teil unserer Community: Diskutiere im Kommentarsystem, erhalte unseren wöchentlichen KI‑Newsletter, 6× im Jahr den „KI Radar“‑Frontier‑Newsletter mit den neuesten Entwicklungen aus der Spitze der KI‑Forschung, bis zu 25 % Rabatt auf KI Pro‑Events und Zugriff auf das komplette Archiv der letzten zehn Jahre.
Jetzt abonnierenKI-News ohne Hype
Von Menschen kuratiert.
- Mehr als 20 Prozent Launch-Rabatt.
- Lesen ohne Ablenkung – keine Google-Werbebanner.
- Zugang zum Kommentarsystem und Austausch mit der Community.
- Wöchentlicher KI-Newsletter.
- 6× jährlich: „KI Radar“ – Deep-Dives zu den wichtigsten KI-Themen.
- Bis zu 25 % Rabatt auf KI Pro Online-Events.
- Zugang zum kompletten Archiv der letzten zehn Jahre.
- Die neuesten KI‑Infos von The Decoder – klar und auf den Punkt.