31 Jugendliche wurden in China für ein experimentelles Forschungsprogramm ausgewählt. Ziel ist die Entwicklung KI-gestützter Waffensysteme.
Die Technische Universität Beijing (BIT) hat aus 5.000 Kandidaten 27 junge Männer und vier Frauen unter 19 Jahren ausgewählt. Die Jugendlichen seien „außergewöhnlich klug“, so ein beteiligter Professor.
Sie sollen ein KI-Studium im Schnelldurchgang durchlaufen und sich früh auf die Entwicklung von KI-Waffen spezialisieren. Schon nach vier Jahren sollen sie ihre Promotion starten.
Man habe nach drei Kernkompetenzen gesucht: kreatives Denken, Durchhaltevermögen und Kampfeswillen. Die Jugendlichen sollten außerdem eine Leidenschaft für ihr Land und Künstliche Intelligenz mitbringen. Sie werden von je zwei Waffenforschern aus der Rüstungsindustrie und Wissenschaft betreut.
Ein Sprecher der Studierenden verkündet, man beschreite einen neuen Weg: die Entwicklung „intelligenter Waffensysteme“ – also Waffen, deren Fähigkeiten mit KI-Technologie erweitert werden.
Regulierung autonomer Waffensysteme: Entscheidung wird seit Jahren vertagt
Eine Expertengruppe innerhalb der Vereinten Nationen verhandelt schon seit einigen Jahren ein Verbot autonomer Waffensysteme. Auch China ist an den Verhandlungen beteiligt und stellte die eigene Position im April in einem Papier an die UN dar.
Die Entwicklung und der Einsatz tödlicher autonomer Waffensysteme senke die Schwelle und die Kosten für einen Krieg bei jenen Ländern, die KI-Waffen einsetzen. Die Folge: Kriege könnten schneller und häufiger ausbrechen.
Allerdings zieht Peking aus dieser Erkenntnis keine unmittelbaren Konsequenzen für die KI-Entwicklung. Bis entsprechende Absprachen stattgefunden hätten, solle KI-Technologie ungehindert entwickelt werden, heißt es in dem Papier.
Diese Position vertritt auch das chinesische Außenministerium in einem Kommentar zum neuen KI-Waffenprogramm: China entwickle KI-Technologie und erprobe Anwendungen. Diese sollen dem ökonomischen, sozialen, wissenschaftlichen und technologischen Fortschritt dienen.
Man sei sich jedoch den möglichen negativen Konsequenzen autonomer Waffensysteme bewusst und beteilige sich daher an den Diskussionen zu einer internationalen Regulierung.
Eine eindrückliche Darstellung der Gefahren autonomer Waffensysteme gibt der Sci-Fi-Kurzfilm „Slaughterbots“. „Ich hoffe, all diese Studierenden werden am Anfang ihres Kurses diesen Film sehen“, kommentiert Stuart Russel die BIT-Initiative. Russel ist Direktor des Zentrums für Intelligente Systeme an der Universität Kalifornien.
Via: SCMP, Titelbild: BIT