Nach Anthropic-Bann: OpenAI macht KI-Deal mit dem Pentagon
Kurz & Knapp
- OpenAI hat eine Vereinbarung mit dem US-Verteidigungsministerium geschlossen, die den Einsatz seiner KI-Modelle in klassifizierten Netzwerken für alle legalen Zwecke erlaubt.
- Der Deal kam nur Stunden zustande, nachdem Präsident Trump Bundesbehörden angewiesen hatte, die Technologie des Konkurrenten Anthropic nicht mehr zu nutzen.
- Anthropic hatte sich geweigert, auf Einschränkungen bei Massenüberwachung und autonomen Waffen zu verzichten. Altman stimmte der Nutzung für alle legalen Zwecke zu, handelte aber technische Schutzmechanismen aus.
OpenAI hat kurz nach der Verbannung von Anthropic eine Vereinbarung mit dem US-Verteidigungsministerium getroffen, seine KI-Modelle in klassifizierten Netzwerken einzusetzen.
OpenAI hat noch am Freitag eine Vereinbarung mit dem Pentagon geschlossen, die den Einsatz seiner KI-Systeme für alle legalen Zwecke erlaubt. In allen Gesprächen habe das Verteidigungsministerium "einen tiefen Respekt vor Sicherheit und den Wunsch nach einer Partnerschaft für das bestmögliche Ergebnis" gezeigt, schreibt Altman auf X.
OpenAI nutzt Anthropics Konflikt aus
Der Deal kam nur Stunden zustande, nachdem Präsident Trump Bundesbehörden angewiesen hatte, die KI-Technologie des OpenAI-Rivalen Anthropic nicht mehr zu nutzen. Anthropic hatte in den vergangenen Wochen mit dem Pentagon über einen 200-Millionen-Dollar-Vertrag verhandelt. Das Verteidigungsministerium verlangte dabei, Anthropics KI-System für sämtliche legalen Zwecke nutzen zu dürfen.
Anthropic bestand hingegen darauf, dass seine Technologie weder für die Massenüberwachung von US-Bürgern noch für autonome tödliche Waffen eingesetzt werden dürfe. Das Pentagon sah darin eine unzulässige Einschränkung: Ein privater Auftragnehmer könne nicht darüber entscheiden, wie seine Werkzeuge für die nationale Sicherheit genutzt werden. Eine Frist am Freitag um 17:01 Uhr verstrich ohne Einigung.
Verteidigungsminister Pete Hegseth bezeichnete Anthropic daraufhin als "Lieferkettenrisiko für die nationale Sicherheit". Trump nannte das Start-up eine "radikale linke KI-Firma" und schrieb auf Truth Social: "WIR werden über das Schicksal unseres Landes entscheiden, NICHT irgendeine außer Kontrolle geratene, radikale linke KI-Firma."
Altman verhandelte angeblich anders als Amodei
OpenAI wählte laut New York Times einen anderen Verhandlungsweg als Anthropic. Altman stimmte der Nutzung für alle legalen Zwecke zu, handelte aber im Gegenzug das Recht aus, technische Schutzmechanismen in die eigenen Systeme einzubauen. Konkret sollen die Modelle laut Axios ausschließlich auf Cloud-Netzwerken laufen und nicht in Edge-Umgebungen wie autonomen Waffensystemen zum Einsatz kommen.
OpenAI werde "technische Sicherheitsvorkehrungen einbauen, um sicherzustellen, dass unsere Modelle sich so verhalten, wie sie sollen, was auch das Verteidigungsministerium wollte", so Altman.
Zudem wird OpenAI eigene Ingenieure entsenden, die neben Regierungspersonal an klassifizierten Projekten arbeiten sollen, um die Sicherheit der Modelle zu gewährleisten. Altman forderte das Pentagon auf, dieselben Bedingungen allen KI-Unternehmen anzubieten; er sei sich sicher, dass sie akzeptabel seien.
Gleiche Prinzipien, unterschiedliche Bedeutung
OpenAI scheint es gelungen zu sein, inhaltlich vergleichbare Sicherheitsbedingungen durchzusetzen, ohne in den politischen Konflikt hineingezogen zu werden, der Anthropic zum Verhängnis wurde. In einem internen Memo an Mitarbeiter schrieb Altman: "Dies ist ein Fall, in dem es mir wichtig ist, dass wir das Richtige tun, nicht das Einfache, das stark aussieht, aber unaufrichtig ist."
Bei genauerer Betrachtung zeigen sich allerdings semantische Unterschiede, die folgenreich sein könnten. Anthropic forderte "keine vollautonomen Waffen ohne menschliche Aufsicht" ("no fully autonomous weapons without human oversight"). Ein Mensch müsse aktiv in den Entscheidungsprozess eingebunden sein, bevor eine Waffe zum Einsatz kommt.
Altman formuliert sein Prinzip dagegen als "menschliche Verantwortung für den Einsatz von Gewalt" ("human responsibility for the use of force"). Verantwortung ist ein dehnbarer Begriff: Sie kann auch im Nachhinein zugewiesen werden und schließt nicht zwingend ein, dass ein Mensch vor dem Einsatz aktiv eingreifen muss.
Anthropics "Aufsicht" hätte autonome Waffensysteme ohne menschliche Echtzeitkontrolle faktisch ausgeschlossen. OpenAIs "Verantwortung" lässt womöglich Raum für Systeme, bei denen die menschliche Rechenschaftspflicht erst nach dem Einsatz greift.
Anthropic hält aktuelle KI-Modelle für vollautonome Waffen nicht für zuverlässig genug
Anthropic begründet seine Position in einer aktuellen Stellungnahme technisch: "Wir glauben nicht, dass die heutigen führenden KI-Modelle zuverlässig genug sind, um in vollautonomen Waffen eingesetzt zu werden. Aktuelle Modelle auf diese Weise einzusetzen, würde Amerikas Soldaten und Zivilisten gefährden."
Auch beim Verbot von "inländischer Massenüberwachung" ("domestic mass surveillance") dürfte die Grenze auf einer Skala verlaufen: Werden die KI-Modelle genutzt, um Überwachung aktiv auszuführen, oder lediglich, um bereits gesammelte Daten auszuwerten? Anthropic wollte womöglich Regeln gegen Einsatzformen verankern, die das geltende Recht angesichts der technologischen Möglichkeiten noch nicht abbildet.
Anthropic hat unterdessen angekündigt, rechtlich gegen die Einstufung als Sicherheitsrisiko vorzugehen: "Keine noch so große Einschüchterung oder Bestrafung durch das Verteidigungsministerium wird unsere Position zu inländischer Massenüberwachung oder vollautonomen Waffen ändern. Wir werden jede Einstufung als Lieferkettenrisiko vor Gericht anfechten."
KI-News ohne Hype – von Menschen kuratiert
Mit dem THE‑DECODER‑Abo liest du werbefrei und wirst Teil unserer Community: Diskutiere im Kommentarsystem, erhalte unseren wöchentlichen KI‑Newsletter, 6× im Jahr den „KI Radar"‑Frontier‑Newsletter mit den neuesten Entwicklungen aus der Spitze der KI‑Forschung, bis zu 25 % Rabatt auf KI Pro‑Events und Zugriff auf das komplette Archiv der letzten zehn Jahre.
Jetzt abonnieren