Das Pentagon investiert zwei Milliarden US-Dollar in die Entwicklung Künstlicher Intelligenz. Das Ziel: Es will die Entscheidungsfindung autonomer Waffensysteme nachvollziehbarer machen. Doch die Skepsis des Militärs ist groß.
Das auf fünf Jahre ausgelegte Programm wird von der DARPA durchgeführt, der Forschungseinrichtung des US-Militärs. Die KI-Investition ist klein gemessen am Jahresbudget des Pentagons, das 2019 mehr als 700 Milliarden für die Verteidigung ausgeben will. Dennoch handelt es sich um die bislang größte Summe, die vom US-Militär für die Entwicklung Künstlicher Intelligenz bereitgestellt wurde.
Die Investition wurde von DARPA-Chef Steven Walker auf einer Konferenz in Washington, D.C. angekündigt. Die Forscher wollen laut Walker herausfinden, ob Maschinen lernen können, ähnlich wie Menschen zu denken und zu kommunizieren. Damit soll die Entscheidungsfindung autonomer Waffensysteme transparenter gemacht werden - eine wichtige Voraussetzung für den Einsatz in militärischen Auseinandersetzungen.
Angst vor einer unkontrollierbaren KI
Laut eines vor kurzem veröffentlichten Pentagon-Strategiepapiers werde es schon bald Waffensysteme geben, die Ziele ohne menschliche Einwirkung auswählen und ausschalten können. Die gesetzlichen Grundlagen für den Einsatz solcher Waffen fehlen allerdings noch.
Ein möglicher Grund ist die Skepsis des Militärs. Maschinen denken nicht wie Menschen und können ihre Entscheidungen nicht begründen, was sie unkontrollierbar macht. Auf der Konferenz erklärte Walker die Ziele des Forschungsprogramms: "Wir wollen, dass die Maschine dem Menschen sagt: 'Das ist die Antwort und das ist der Grund, weshalb ich denke, dass das die richtige Antwort ist." Inwiefern das in einem sich stetig wandelnden Kampfszenario möglich ist, bleibt unklar.
"Es gibt viele Bedenken, was die Sicherheit von KI-Systemen betrifft: ob sie sich der komplexen Realität anpassen können oder in unvorhersehbarer Weise versagen", sagt Michael Horowitz, der für das Pentagon jahrelang an KI-Systemen arbeitete, gegenüber The Verge.
Ethische Fragen unbeantwortet
Ron Brachman leitete während drei Jahren die KI-Forschung der DARPA. Er zeigt sich trotz der jüngsten KI-Fortschritte skeptisch: "Wir brauchen wahrscheinlich ein riesiges Manhattan-Projekt, um eine KI mit der Kompetenz eines dreijährigen Kindes zu entwickeln. Künstliche Intelligenz ist gut in der Bilderkennung, aber wie man ihr Vernunft beibringen will, ist noch immer schwer fassbar."
Die ethischen Fragestellungen sind damit noch gar nicht berührt. In Genf trafen sich dieser Tage Vertreter aus über 75 Ländern, um über die Zukunft von "Killerrobotern" und ein mögliches Verbot zu beraten.
Auch Google bekam deswegen schon Schwierigkeiten: Als Anfang des Jahres herauskam, dass der Konzern mit dem US-Militär an einem KI-System arbeitet, kam es zu heftigen Mitarbeiterprotesten. Die Konzernleitung gab nach und entschied sich, Project Maven aufzugeben. Das US-Militär wird die Forschung wird mit einem anderen Partner fortführen.