Sprachmodelle in militärischen Planspielen neigen zur Eskalation – sogar bis zum Atomkrieg.
„Die KI spielt immer Curtis LeMay“, sagt Jacquelyn Schneider von der Stanford University im Gespräch mit Politico über ihre Experimente mit Sprachmodellen in militärischen Planspielen. LeMay war ein US-General im Kalten Krieg, bekannt für seine Bereitschaft, Atomwaffen einzusetzen. „Es ist fast so, als würde die KI Eskalation verstehen, aber keine Deeskalation. Wir wissen nicht wirklich, warum das so ist.“
Die KI-Modelle reagierten in den Simulationen mit einer auffälligen Neigung zur Eskalation – oft bis zum Einsatz von Atomwaffen. Schneider und ihr Team vermuten, dass die Ursache im Trainingsmaterial liegt: LLMs lernen aus vorhandener Literatur, und die ist stark auf Konflikt- und Eskalationsverläufe ausgerichtet. Friedlich gelöste Krisen wie die Kuba-Krise sind kaum dokumentiert. Der Mangel an „Nicht-Ereignissen“ im Datensatz macht Deeskalation für KI schwerer nachvollziehbar. Die Experimente wurden allerdings mit älteren Sprachmodellen wie GPT-4, Claude 2 und Llama-2 durchgeführt.