Sprachmodelle in militärischen Planspielen neigen zur Eskalation – sogar bis zum Atomkrieg.

Anzeige

„Die KI spielt immer Curtis LeMay“, sagt Jacquelyn Schneider von der Stanford University im Gespräch mit Politico über ihre Experimente mit Sprachmodellen in militärischen Planspielen. LeMay war ein US-General im Kalten Krieg, bekannt für seine Bereitschaft, Atomwaffen einzusetzen. „Es ist fast so, als würde die KI Eskalation verstehen, aber keine Deeskalation. Wir wissen nicht wirklich, warum das so ist.“

Die KI-Modelle reagierten in den Simulationen mit einer auffälligen Neigung zur Eskalation – oft bis zum Einsatz von Atomwaffen. Schneider und ihr Team vermuten, dass die Ursache im Trainingsmaterial liegt: LLMs lernen aus vorhandener Literatur, und die ist stark auf Konflikt- und Eskalationsverläufe ausgerichtet. Friedlich gelöste Krisen wie die Kuba-Krise sind kaum dokumentiert. Der Mangel an „Nicht-Ereignissen“ im Datensatz macht Deeskalation für KI schwerer nachvollziehbar. Die Experimente wurden allerdings mit älteren Sprachmodellen wie GPT-4, Claude 2 und Llama-2 durchgeführt.

Anzeige
Anzeige
Community beitreten
Kommt in die DECODER-Community bei Discord,Reddit, Twitter und Co. - wir freuen uns auf euch!
Unterstütze unsere unabhängige, frei zugängliche Berichterstattung. Jeder Betrag hilft und sichert unsere Zukunft. Jetzt unterstützen:
Banküberweisung
Quellen
Max ist leitender Redakteur bei THE DECODER. Als studierter Philosoph beschäftigt er sich mit dem Bewusstsein, KI und der Frage, ob Maschinen wirklich denken können oder nur so tun als ob.
Community beitreten
Kommt in die DECODER-Community bei Discord,Reddit, Twitter und Co. - wir freuen uns auf euch!