Anzeige
Skip to content

KI-Planspiele offenbaren mangelndes Verständnis für Deeskalation

Sprachmodelle in militärischen Planspielen neigen zur Eskalation, sogar bis zum Atomkrieg.

„Die KI spielt immer Curtis LeMay“, sagt Jacquelyn Schneider von der Stanford University im Gespräch mit Politico über ihre Experimente mit Sprachmodellen in militärischen Planspielen. LeMay war ein US-General im Kalten Krieg, bekannt für seine Bereitschaft, Atomwaffen einzusetzen. „Es ist fast so, als würde die KI Eskalation verstehen, aber keine Deeskalation. Wir wissen nicht wirklich, warum das so ist.“

Die KI-Modelle reagierten in den Simulationen mit einer auffälligen Neigung zur Eskalation – oft bis zum Einsatz von Atomwaffen. Schneider und ihr Team vermuten, dass die Ursache im Trainingsmaterial liegt: LLMs lernen aus vorhandener Literatur, und die ist stark auf Konflikt- und Eskalationsverläufe ausgerichtet. Friedlich gelöste Krisen wie die Kuba-Krise sind kaum dokumentiert. Der Mangel an „Nicht-Ereignissen“ im Datensatz macht Deeskalation für KI schwerer nachvollziehbar. Die Experimente wurden allerdings mit älteren Sprachmodellen wie GPT-4, Claude 2 und Llama-2 durchgeführt.

Anzeige
DEC_D_Incontent-1

KI-News ohne Hype – von Menschen kuratiert

Mit dem THE‑DECODER‑Abo liest du werbefrei und wirst Teil unserer Community: Diskutiere im Kommentarsystem, erhalte unseren wöchentlichen KI‑Newsletter, 6× im Jahr den „KI Radar“‑Frontier‑Newsletter mit den neuesten Entwicklungen aus der Spitze der KI‑Forschung, bis zu 25 % Rabatt auf KI Pro‑Events und Zugriff auf das komplette Archiv der letzten zehn Jahre.

Quelle: Politico