Nach der Ankündigung einer Zusammenarbeit zwischen OpenAI und dem Rüstungskonzern Anduril regt sich interner Widerstand. Die Mitarbeiter befürchten einen Kontrollverlust über die militärische Nutzung der KI-Technologie.
Wie die Washington Post berichtet, haben OpenAI-Mitarbeiter nach Bekanntgabe der Partnerschaft mit dem Rüstungsunternehmen Anduril am Mittwoch in einem internen Diskussionsforum Bedenken geäußert. Sie fordern mehr Transparenz und hinterfragen die militärische Nutzung der von ihnen entwickelten KI-Technologie kritisch.
Den von der Washington Post eingesehenen Nachrichten zufolge bezweifeln mehrere Mitarbeiter, dass sich die KI-Nutzung tatsächlich nur auf die Verteidigung von US-Soldaten gegen Drohnenangriffe beschränken lässt. Sie fragen, wie OpenAI einen Einsatz gegen bemannte Flugzeuge oder andere militärische Zwecke verhindern wolle.
Nach Angaben der US-Zeitung kritisierte ein Mitarbeiter, dass das Unternehmen versuche, die offensichtlichen Implikationen einer Zusammenarbeit mit einem Waffenhersteller herunterzuspielen. Ein anderer äußerte Sorgen über mögliche Reputationsschäden für OpenAI. Einige Mitarbeitende unterstützen den Deal.
Die neue Partnerschaft sieht vor, dass OpenAIs KI-Modelle mit Andurils umfangreicher Datenbank zu Drohnenbedrohungen trainiert werden. Ziel ist es nach Angaben von Anduril, die Fähigkeiten der US-Streitkräfte und verbündeter Nationen bei der Erkennung und Abwehr von unbemannten Flugsystemen zu verbessern.
Management verteidigt militärische KI-Nutzung
Das OpenAI-Management reagierte laut Washington Post schnell auf die Kritik. Die Führungskräfte betonten, dass sich die Zusammenarbeit mit Anduril ausschließlich auf Verteidigungssysteme beschränke. Letztlich sind Angriff und Verteidigung jedoch eine Frage der Definition. Anduril baut auch Drohnen, die tödliche Angriffe durchführen können.
In den internen Diskussionen argumentierten die Führungskräfte der Washington Post zufolge, dass es wichtig sei, demokratisch gewählten Regierungen die beste verfügbare Technologie zur Verfügung zu stellen. Autoritäre Staaten würden sich ohnehin nicht zurückhalten, KI militärisch zu nutzen.
"Wir sind stolz darauf, Menschen zu schützen, die ihr Leben riskieren, um unsere Familien und unser Land zu schützen", wird OpenAI-CEO Sam Altman zitiert. Einige Mitarbeiter konterten, dass die USA auch Waffen an autoritäre Verbündete verkaufen würden.
OpenAI hatte jahrelang die militärische Nutzung seiner Technologie untersagt. Erst im Januar 2024 wurden die Richtlinien gelockert, um bestimmte militärische Anwendungen wie Cybersecurity zu erlauben. Laut Washington Post nimmt die Offenheit von KI-Unternehmen gegenüber dem militärischen Einsatz ihrer Technologie insgesamt zu.