OpenAI will seine KI-Produkte künftig besser vor Trittbrettfahrern schützen – auch als Reaktion auf den zunehmend verbissenen Wettbewerb unter KI-Modellherstellern.
Auslöser für die neuen Maßnahmen waren unter anderem Vorwürfe gegen chinesische Konkurrenten wie das Start-up Deepseek. Dieses soll durch sogenannte "Distillation" unerlaubt Modelle von OpenAI zur Entwicklung eigener Systeme wie R1 verwendet haben. Deepseek hat sich zu den Anschuldigungen bislang nicht geäußert.
Laut Informationen der Financial Times hat OpenAI daraufhin den Zugang zu sensiblen Informationen eingeschränkt, biometrische Zugangskontrollen eingeführt und neue Vorschriften zur Datentrennung umgesetzt.
Eine zentrale Maßnahme: Systeme erhalten grundsätzlich keinen Internetzugang, es sei denn, dieser wird ausdrücklich genehmigt. So sollen Modellgewichte besser vor unautorisiertem Zugriff geschützt werden.
Zudem dürfen Mitarbeitende nur noch auf Projekte zugreifen, für die sie explizit freigegeben wurden. Intern bezeichnet OpenAI diese strikte Zugriffskontrolle als "Information Tenting". So mussten etwa alle Beteiligten am damals neuen Modell "o1" mit dem Codenamen "Strawberry" sicherstellen, dass Gespräche dazu ausschließlich mit ebenfalls autorisierten Kolleginnen und Kollegen geführt wurden.
Auch die physische Sicherheit wurde erhöht: In den Rechenzentren gelten verschärfte Zutrittsregeln, und das Unternehmen hat Sicherheitsexperten mit militärischem Hintergrund eingestellt – darunter Dane Stuckey (zuvor Palantir) sowie den früheren US-General Paul Nakasone.
US-KI-Unternehmen machen die Schotten vor China dicht
Laut OpenAI sind die Maßnahmen Teil einer umfassenden Investition in Sicherheitsprogramme und nicht auf einen einzelnen Vorfall zurückzuführen. Ziel sei es, eine branchenführende Rolle in puncto KI-Sicherheit einzunehmen.
Gleichzeitig reagiere das Unternehmen auf Warnungen von US-Behörden, die vor zunehmender Wirtschaftsspionage durch ausländische Akteure, insbesondere aus China, warnen. Im globalen KI-Wettlauf wird der Diebstahl von Technologie als Bedrohung für nationale und wirtschaftliche Sicherheit eingestuft.
Erst kürzlich warnten OpenAI und Anthropic gemeinsam die US-Regierung vor dem chinesischen Modell Deepseek R1, das aufgrund staatlicher Kontrolle und weitreichender Datenzugriffe als strategische Bedrohung gilt. Parallel dazu überarbeitete OpenAI sein sogenanntes Preparedness Framework, um Hochrisiko-Fähigkeiten wie autonome Replikation oder Cyberangriffe systematischer durch verschärfte Kriterien und automatisierte Tests zu erfassen.