OpenAI wird erstmals offizieller Auftragnehmer des US-Verteidigungsministeriums. Der Vertrag über 200 Millionen Dollar ist Teil einer neuen Regierungsinitiative für den Einsatz fortgeschrittener KI-Systeme im öffentlichen Sektor.
Das US-Verteidigungsministerium hat OpenAI einen Vertrag über 200 Millionen Dollar zur Bereitstellung und Entwicklung von KI-Technologien zugesprochen. Der Vertrag läuft über ein Jahr und soll laut Pentagon primär in der Region Washington, D.C. umgesetzt werden. Es ist der erste offizielle Vertrag zwischen dem Pentagon und OpenAI.
OpenAI soll das Verteidigungsministerium unter anderem bei der Verbesserung der Gesundheitsversorgung für Militärangehörige, bei der Analyse von Programmdaten und bei der proaktiven Cyberabwehr unterstützen. Alle Anwendungen müssen mit den Nutzungsrichtlinien des Unternehmens übereinstimmen.
OpenAI startet Regierungsinitiative mit Pilotprojekt im Verteidigungsbereich
Der Vertrag ist Teil der neu geschaffenen Initiative "OpenAI for Government", mit der das Unternehmen seine KI-Angebote für öffentliche Einrichtungen in den USA systematisch bündeln will. Bestehende Kooperationen mit US-Behörden wie der NASA, dem NIH, der Air Force oder dem Finanzministerium werden unter diesem Dach zusammengeführt.
Über die Initiative sollen Bundes-, Landes- und Kommunalbehörden Zugang zu OpenAIs Modellen in sicheren, rechtskonformen Umgebungen erhalten. Zudem bietet das Unternehmen die Entwicklung maßgeschneiderter KI-Modelle für sicherheitsrelevante Zwecke und direkten technischen Support. Das erste Pilotprojekt im Rahmen der Initiative wird konkret mit dem Chief Digital and Artificial Intelligence Office (CDAO) des Verteidigungsministeriums durchgeführt.
Ethische Leitplanken begrenzen Nutzungsmöglichkeiten
OpenAI betont, dass alle Anwendungen im Rahmen des Regierungsprogramms den eigenen Nutzungsrichtlinien unterliegen. Diese schließen unter anderem den Einsatz zur Gesichtserkennung ohne Zustimmung, die biometrische Kategorisierung nach sensiblen Attributen sowie die emotionale Überwachung am Arbeitsplatz aus. Auch automatisierte Entscheidungen in sicherheitsrelevanten Bereichen wie Migration, Kreditvergabe oder Infrastrukturmanagement sind untersagt, sofern sie nicht durch Fachpersonal geprüft werden.
Darüber hinaus verbietet OpenAI ausdrücklich die Entwicklung oder Nutzung seiner Dienste zur Herstellung oder Steuerung von Waffen, zur Förderung von Gewalt, zur Tötung von Menschen oder zur Zerstörung von Eigentum. Der Einsatz der KI-Modelle zur Selbstschädigung, zur Unterstützung bei Angriffen auf Computersysteme oder zur Durchführung nicht autorisierter Überwachungsmaßnahmen ist ebenso ausgeschlossen. Politische Einflussnahme, etwa durch gezielte Kampagnen oder Desinformation, ist ebenfalls nicht gestattet.