Inhalt
newsletter Newsletter

Das Pentagon investiert zwei Milliarden US-Dollar in die Entwicklung Künstlicher Intelligenz. Das Ziel: Es will die Entscheidungsfindung autonomer Waffensysteme nachvollziehbarer machen. Doch die Skepsis des Militärs ist groß.

Anzeige

Das auf fünf Jahre ausgelegte Programm wird von der DARPA durchgeführt, der Forschungseinrichtung des US-Militärs. Die KI-Investition ist klein gemessen am Jahresbudget des Pentagons, das 2019 mehr als 700 Milliarden für die Verteidigung ausgeben will. Dennoch handelt es sich um die bislang größte Summe, die vom US-Militär für die Entwicklung Künstlicher Intelligenz bereitgestellt wurde.

Die Investition wurde von DARPA-Chef Steven Walker auf einer Konferenz in Washington, D.C. angekündigt. Die Forscher wollen laut Walker herausfinden, ob Maschinen lernen können, ähnlich wie Menschen zu denken und zu kommunizieren. Damit soll die Entscheidungsfindung autonomer Waffensysteme transparenter gemacht werden - eine wichtige Voraussetzung für den Einsatz in militärischen Auseinandersetzungen.

Angst vor einer unkontrollierbaren KI

Laut eines vor kurzem veröffentlichten Pentagon-Strategiepapiers werde es schon bald Waffensysteme geben, die Ziele ohne menschliche Einwirkung auswählen und ausschalten können. Die gesetzlichen Grundlagen für den Einsatz solcher Waffen fehlen allerdings noch.

Anzeige
Anzeige

Ein möglicher Grund ist die Skepsis des Militärs. Maschinen denken nicht wie Menschen und können ihre Entscheidungen nicht begründen, was sie unkontrollierbar macht. Auf der Konferenz erklärte Walker die Ziele des Forschungsprogramms: "Wir wollen, dass die Maschine dem Menschen sagt: 'Das ist die Antwort und das ist der Grund, weshalb ich denke, dass das die richtige Antwort ist." Inwiefern das in einem sich stetig wandelnden Kampfszenario möglich ist, bleibt unklar.

"Es gibt viele Bedenken, was die Sicherheit von KI-Systemen betrifft: ob sie sich der komplexen Realität anpassen können  oder in unvorhersehbarer Weise versagen", sagt Michael Horowitz, der für das Pentagon jahrelang an KI-Systemen arbeitete, gegenüber The Verge.

Ethische Fragen unbeantwortet

Ron Brachman leitete während drei Jahren die KI-Forschung der DARPA. Er zeigt sich trotz der jüngsten KI-Fortschritte skeptisch: "Wir brauchen wahrscheinlich ein riesiges Manhattan-Projekt, um eine KI mit der Kompetenz eines dreijährigen Kindes zu entwickeln. Künstliche Intelligenz ist gut in der Bilderkennung, aber wie man ihr Vernunft beibringen will, ist noch immer schwer fassbar."

Die ethischen Fragestellungen sind damit noch gar nicht berührt. In Genf trafen sich dieser Tage Vertreter aus über 75 Ländern, um über die Zukunft von "Killerrobotern" und ein mögliches Verbot zu beraten.

Auch Google bekam deswegen schon Schwierigkeiten: Als Anfang des Jahres herauskam, dass der Konzern mit dem US-Militär an einem KI-System arbeitet, kam es zu heftigen Mitarbeiterprotesten. Die Konzernleitung gab nach und entschied sich, Project Maven aufzugeben. Das US-Militär wird die Forschung wird mit einem anderen Partner fortführen.

Anzeige
Anzeige
Community beitreten
Kommt in die DECODER-Community bei Discord,Reddit, Twitter und Co. - wir freuen uns auf euch!
Empfehlung

Weiterlesen zum Thema:

| Featured Image: Autonomous Weapons (Screenshot bei YouTube) | Source: The Verge
Unterstütze unsere unabhängige, frei zugängliche Berichterstattung. Jeder Betrag hilft und sichert unsere Zukunft. Jetzt unterstützen:
Banküberweisung
Tomislav schreibt über Künstliche Intelligenz im Kontext der XR, Kunst und virtueller Wesen: Wie trägt KI zur Entwicklung von VR und AR bei, wie rekonstruiert und erweitert sie das menschliche Kunstschaffen und welche neue Formen des Geschichtenerzählens und der NPC-Interaktion ermöglicht sie?
Community beitreten
Kommt in die DECODER-Community bei Discord,Reddit, Twitter und Co. - wir freuen uns auf euch!