Die USA würden sich an strenge ethische Richtlinien halten, so ein US-General der Air Force. Doch man dürfe nicht erwarten, dass das die Position eines potenziellen Gegners sei.
Im Rahmen einer Veranstaltung am Hudson Institute wurde Lt. Gen. Richard G. Moore Jr. gefragt, wie das Pentagon autonome Kriegsführung sehe. KI-Ethik sei ein Diskussionsthema auf höchster Entscheidungsebene im Verteidigungsministerium, sagte der Drei-Sterne-General der Luftwaffe und stellvertretende Stabschef für Pläne und Programme der Luftwaffe.
"Was auch immer man glaubt, unsere Gesellschaft ist eine jüdisch-christliche Gesellschaft, und wir haben einen moralischen Kompass. Den hat nicht jeder", sagte Moore. "Es gibt diejenigen, die bereit sind, für ihre Ziele zu kämpfen, egal mit welchen Mitteln."
Welche Rolle KI in der Zukunft der Kriegsführung spielen werde, hänge davon ab, "wer sich an die Regeln der Kriegsführung hält und wer nicht. Es gibt Gesellschaften, die ganz andere Grundlagen haben als wir", sagte er, ohne ein Land zu nennen.
"Es ist nicht zu erwarten, dass dies die Position eines potenziellen Gegners ist"
In einem Interview mit der Washington Post erklärte Moore, dass die KI-Ethik zwar nicht nur eine Angelegenheit der Vereinigten Staaten sei, es aber unwahrscheinlich sei, dass ihre Gegner nach den gleichen Werten handeln würden.
"Die Grundlage meines Kommentars war, zu erklären, dass die Luftwaffe es nicht zulassen wird, dass KI Maßnahmen ergreift, und dass wir auch keine Maßnahmen auf der Grundlage von KI-Informationen ergreifen werden, wenn wir nicht sicher sein können, dass die Informationen mit unseren Werten übereinstimmen", schrieb Moore. "Das gilt vielleicht nicht nur für unsere Gesellschaft, aber es ist nicht zu erwarten, dass dies die Position eines potenziellen Gegners ist."
Wer dieser potenzielle Gegner ist, ließ Moore offen. Klar ist aber, dass vor allem China von den USA als potenzieller Gegner in einem bewaffneten Konflikt wahrgenommen wird, in dem KI eine zentrale Rolle spielt.
Auch China hat Gründe auf autonome Kriegsführung zu verzichten
Aber auch wenn die ethischen Richtlinien in beiden Nationen sehr unterschiedlich sind und historisch sehr gegensätzliche Ursprünge haben - in den USA beispielsweise häufig Texte christlicher Autoren und in China Texte des Marxismus-Leninismus, sowie kommunistische Parteiregeln - könnten letztlich beide Nationen ihre Gründe haben, KI-Systemen keine endgültige Kontrolle über Waffensysteme zu geben.
"Sobald man einem Algorithmus die Kontrolle über ein Waffensystem überlässt, verliert die kommunistische Partei im schlimmsten Fall die Kontrolle", sagte Mark Metcalf, Dozent an der University of Virginia und pensionierter US-Marineoffizier, in einem Interview mit der Washington Post.
Ethische Standards als Nachteil?
Moores Aussagen können aber auch in diese Richtung interpretiert werden: Der Verzicht auf eine völlig autonome Kriegführung ist zwar moralisch geboten, kann sich aber im Ernstfall als Nachteil erweisen, etwa bei der Reaktionsgeschwindigkeit.
Auch wenn es offizielle Doktrin der US-Streitkräfte ist, die Schwelle zur völligen Autonomie nicht zu überschreiten, muss das Pentagon dennoch Antworten auf einen Gegner finden, der sich nicht an diese Regeln hält. Wenn dies gelingt, wird es auch langfristig helfen, diese selbst auferlegten ethischen Richtlinien auch im Ernstfall einzuhalten.