Inhalt
newsletter Newsletter

KI-Forscher und Nuklearsicherheitsexperten befürchten, dass fortschrittliche Künstliche Intelligenz das Gleichgewicht des Schreckens stören könnte. Aber es gibt auch positive Ausblicke.

Anzeige

Einem Bericht der Rand Corporation zufolge könnte Künstliche Intelligenz in den nächsten Jahrzehnten das militärische Gleichgewicht so stark aus der Balance bringen, dass ein Land den atomaren Erstschlag wagt. Alternativ könnte KI aber auch für mehr Stabilität sorgen, insbesondere durch eine höhere Transparenz.

Die Rand Corporation wurde nach dem zweiten Weltkrieg gegründet und berät das US-Militär. Der Bericht fasst die Arbeitsergebnisse dreier Rand-Workshops zusammen, die im Mai und Juni 2017 KI-Forscher und Experten für Nuklearsicherheit zusammenbrachten.

Die Teilnehmer der Workshops waren sich einig, dass fortschrittliche KI bestehende Nuklearstrategien beeinflussen wird und dadurch das Risiko eines Nuklearkriegs erhöhen könnte, heißt es im Bericht. Die Experten stimmten aber nicht überein, wann genau und auf welche Art das passiert.

Anzeige
Anzeige

Laut des Berichts waren viele der Workshop-Teilnehmer nicht davon überzeugt, dass KI bis 2040 fortschrittlich genug ist, um eine signifikante Rolle bei Nuklearfragen einzunehmen. Zuvor müsse sie robust werden gegen Hacks, zum Beispiel durch gefälschte Trainingsdaten.

Risiko-Szenario: Kein Rückschlag nach dem Erstschlag

Während des Kalten Kriegs bestand für die Atommächte das Risiko, dass der Gegner nach einem atomaren Erstschlag mit gleicher Kraft zurückschlägt. Das führte zwar zu einem permanenten Wettrüsten. Gleichzeitig hielt es Nuklearmächte aber auch davon ab, den Erstschlag zu wagen - das sogenannte Gleichgewicht des Schreckens.

Künstliche Intelligenz, heißt es im Bericht, könne dieses Gleichgewicht aus der Balance bringen: Sie könnte Waffensysteme eines Gegners so genau analysieren, dass dieser mit einem einzigen Angriff komplett ausgelöscht würde.

Das könne eine Nuklearmacht womöglich zum Erstschlag verführen: Entweder mit der Sicherheit, den Gegner vollständig auszuradieren. Oder aus Angst vor der eigenen Vernichtung.

Positiv-Szenario: Strategische Sicherheit durch totale Transparenz

Diese totale KI-Transparenz könne sich auch als stabilisierender Faktor erweisen. Nuklearmächte wüssten jederzeit über die Strategien und Waffensysteme des Gegners Bescheid und hätten so eine höhere Entscheidungssicherheit. Angriffe müssten nicht auf Verdacht oder aus Angst vor einer Bedrohung erfolgen.

Empfehlung

KI könne außerdem für einen völlig neuen Grad der Stabilität sorgen, "da sie keine Fehler macht und keinen Druck verspürt".

Die Rand Corporation fordert einen internationalen Dialog zum militärischen Umgang mit Künstlicher Intelligenz. Um den Frieden trotz technischen Fortschritts zu bewahren, müsse sich jede Atommacht beteiligen. Außerdem brauche es globale Institutionen und Übereinkünfte.

Anzeige
Anzeige
Community beitreten
Kommt in die DECODER-Community bei Discord,Reddit, Twitter und Co. - wir freuen uns auf euch!

Weiterlesen zum Thema:

Unterstütze unsere unabhängige, frei zugängliche Berichterstattung. Jeder Betrag hilft und sichert unsere Zukunft. Jetzt unterstützen:
Banküberweisung
Online-Journalist Matthias ist Gründer und Herausgeber von THE DECODER. Er ist davon überzeugt, dass Künstliche Intelligenz die Beziehung zwischen Mensch und Computer grundlegend verändern wird.
Community beitreten
Kommt in die DECODER-Community bei Discord,Reddit, Twitter und Co. - wir freuen uns auf euch!