Die US Air Force hat ihren ersten Flug mit einem KI-Co-Piloten hinter sich. Es ist das erste Mal, dass ein menschlicher Pilot in der Luft die Kontrolle militärischer Systeme an ein KI-System abgibt.
Der Flug erfolgte am 15. Dezember mit einem U-2 Aufklärungsflugzeug der Beale Air Force Base in Kalifornien. Während des Fluges steuerte der KI-Algorithmus Sensoren und taktische Navigationssysteme des 1957 eingeführten Jets.
Es ist das erste Mal in der Geschichte der amerikanischen Streitkräfte, dass ein auf maschinellem lernen basierendes KI-System an Bord eines Militärflugzeugs mitfliegt.
Der Algorithmus ARTUµ wurde vom Federal Laboratory des Air Combat Command entwickelt und übernahm während des Fluges Aufgaben, die normalerweise vom Piloten erledigt werden: Der menschliche Pilot übergab nach Start ARTUµ die Kontrolle über das Radarsystem für einen simulierten Raketenangriff.
Die Künstliche Intelligenz suchte mit den Sensoren des Flugzeuges nach feindlichen Stellungen als Ziel für simulierte Raketenangriffe, der Pilot hielt nach feindlichen Flugzeugen Ausschau.
Vom Spielbrett ins Aufklärungsflugzeug
Die genauen Details der Mission sind unbekannt, aber in einem Artikel in Popular Mechanics deutet der beteiligte Forscher Dr. Will Roper an, ARTUµ habe das letzte Wort darüber gehabt, ob das Radar zur Suche nach Raketenstellungen oder für den Selbstschutz des Flugzeuges genutzt werde.
Dass die KI hier selbstständig eine Entscheidung trifft, ist besonders, denn die aktive Suche nach Raketenstellungen per Radar kann Flugzeuge wie die U-2 verraten und so das Leben des Piloten gefährden.
Für die Flugzeug-KI trainierte die Air Force laut Roper Deepminds MuZero-Algorithmus. Der von Deepmind an Brett- und Videospielen getestete Algorithmus lernte, einen Radar zu bedienen, die Konsequenzen verschiedener Szenarien einzuschätzen (Feinde entdeckt vs. U-2 abgeschossen) und dabei mit dem Piloten zu kooperieren.
Die KI absolvierte in etwas über einem Monat knapp eine Million Trainingssimulationen, in denen sie Punkte für das Auffinden feindlicher Ziele erhielt und Punkte verlor, wenn die simulierte U-2 abgeschossen wurde, so Roper.
Militärflug mit KI-Technik: Deepmind weiß von nichts
Eine Sprecherin von Deepmind sagt gegenüber Fortune, das Unternehmen habe keine Rolle in der Entwicklung von ARTUµ gespielt und keine Technologie an die US Air Force lizenziert. Deepmind habe erst aus den Pressemitteilungen von dem Projekt erfahren.
Tatsächlich hat sich Deepmind in der Vergangenheit gegen den Einsatz von KI in offensiven Militäranwendungen ausgesprochen. Das Unternehmen und seine Gründer unterzeichneten eine Erklärung des Future of Life Instituts gegen die Entwicklung tödlicher autonomer Waffen.
Demis Hassabis, Mitgründer und Geschäftsführer von Deepmind, unterschrieb außerdem einen offenen Brief von KI- und Robotik-Forschern, die ein UN-Verbot autonomer Waffen fordern. Auch Deepminds Schwesterunternehmen Google, dessen Einnahmen Deepmind finanzieren, nahm nach Mitarbeiterprotesten 2018 den nicht-militärischen Einsatz Künstlicher Intelligenz in die eigenen KI-Richtlinien auf.
Deepmind selbst veröffentlichte lediglich Pseudocode von MuZero. Im Netz sind aber eine Reihe von Open-Source-Implementationen von MuZero zu finden. Die KI-Forscher der US Air Force könnten also auf diese zugegriffen oder eine eigene Version entwickelt haben.
Air Force nutzt Software-Container Kubernetes
ARTUµ lief beim ersten Testflug mit der von Google entwickelten Kubernetes-Technologie, mit der Code abgekapselt vom Rest des U-2-Systems ausgeführt werden kann. Kubernetes ist ein Open Source Container-System für Software.
Solche Container können relativ unabhängig von ihrer Softwareumgebung laufen, da sie auf keine externen Softwarebibliotheken oder Konfigurationsdateien angewiesen sind. Das erlaubt der Air Force, KI-Systeme wie ARTUµ ohne große Anpassungen auch in andere Flugsysteme einzusetzen.
Kubernetes soll außerdem Piloten ermöglichen, bestimmte Systeme während des Fluges an einzelne KI-Systeme abzugeben. Statt eines KI-Co-Piloten für alle Aufgaben, gäbe es dann mehrere neuronale Netze für unterschiedliche Aufgaben - die dennoch alle innerhalb eines geschlossenen Containers operieren.
Der erste Einsatz von Kubernetes fand vor zwei Monaten ebenfalls mit der U-2 statt. Der Test legte die Grundlage für den ersten Flug mit dem KI-Co-Piloten.
„Der Krieg der Algorithmen hat begonnen“
Für Roper bedeutet der erfolgreiche Testflug den Beginn eines neuen Rüstungswettbewerbs: „Während wir die erste Generation von KI für Piloten fertig stellen, müssen wir gleichzeitig an Algorithmustarnung und Gegenmaßnahmen arbeiten“, so Roper.
„Auch wenn Algorithmen für menschliche Piloten so unsichtbar wie Radare sind, müssen sie ähnliche Instinkte für sie entwickeln und lernen, mit und gegen KI der ersten Generation zu fliegen – während wir die nächste Generation erfinden. Der Krieg der Algorithmen hat begonnen.”
Das moralische Dilemma der KI-Forschung: Wohin mit den Ergebnissen?
Innerhalb der KI-Forschung könnte der Fall noch Wellen schlagen, denn er zeigt, dass selbst KI-Riesen wie Deepmind keine Kontrolle darüber haben, was mit ihren Erfindungen geschieht, sobald sie veröffentlicht sind.
Das könnte Deepmind und andere dazu bewegen, der US-KI-Forschungseinrichtung OpenAI zu folgen, die bereits 2018 den Zugriff auf ihre Text-KI GPT-2 beschränkte.
Die Begründung damals lautete: Die KI könnte im Netz für die Produktion unzähliger Fake-News genutzt werden und sei daher “zu gefährlich” für eine vollständige Veröffentlichung. OpenAI veröffentlichte die mächtigste Variante der Text-KI erst, nachdem andere Forschergruppen ähnliche Projekte vorstellten.
OpenAI wurde damals vorgeworfen, die Begründung für die Abkehr von der bis dahin als selbstverständlich angesehenen Open Source-Politik sei alarmistisch und die Entscheidung eine PR-Maßnahme, da sie für viele Schlagzeilen sorgte. Am Beispiel von MuZero zeigt sich, dass der Vorwurf in dieser Pauschalität nicht stimmt.
Den Zugang zum Nachfolger GPT-3 gibt es nur gegen Bezahlung und nur für ausgewählte Bewerber. Allerdings wirft auch dieses Vertriebsmodell im Vergleich zu Open Source ein neues moralisches Dilemma auf: OpenAI kann so zwar Missbrauch weitestgehend einschränken, wird aber zum Torwächter über den Einsatz einer mächtigen KI-Technik und entscheidet, welche Anwendungsszenarien umgesetzt werden dürfen und welche nicht.