Inhalt
summary Zusammenfassung

OpenAI will seine KI-Produkte künftig besser vor Trittbrettfahrern schützen – auch als Reaktion auf den zunehmend verbissenen Wettbewerb unter KI-Modellherstellern.

Anzeige

Auslöser für die neuen Maßnahmen waren unter anderem Vorwürfe gegen chinesische Konkurrenten wie das Start-up Deepseek. Dieses soll durch sogenannte "Distillation" unerlaubt Modelle von OpenAI zur Entwicklung eigener Systeme wie R1 verwendet haben. Deepseek hat sich zu den Anschuldigungen bislang nicht geäußert.

Laut Informationen der Financial Times hat OpenAI daraufhin den Zugang zu sensiblen Informationen eingeschränkt, biometrische Zugangskontrollen eingeführt und neue Vorschriften zur Datentrennung umgesetzt.

Eine zentrale Maßnahme: Systeme erhalten grundsätzlich keinen Internetzugang, es sei denn, dieser wird ausdrücklich genehmigt. So sollen Modellgewichte besser vor unautorisiertem Zugriff geschützt werden.

Anzeige
Anzeige

Zudem dürfen Mitarbeitende nur noch auf Projekte zugreifen, für die sie explizit freigegeben wurden. Intern bezeichnet OpenAI diese strikte Zugriffskontrolle als "Information Tenting". So mussten etwa alle Beteiligten am damals neuen Modell "o1" mit dem Codenamen "Strawberry" sicherstellen, dass Gespräche dazu ausschließlich mit ebenfalls autorisierten Kolleginnen und Kollegen geführt wurden.

Auch die physische Sicherheit wurde erhöht: In den Rechenzentren gelten verschärfte Zutrittsregeln, und das Unternehmen hat Sicherheitsexperten mit militärischem Hintergrund eingestellt – darunter Dane Stuckey (zuvor Palantir) sowie den früheren US-General Paul Nakasone.

US-KI-Unternehmen machen die Schotten vor China dicht

Laut OpenAI sind die Maßnahmen Teil einer umfassenden Investition in Sicherheitsprogramme und nicht auf einen einzelnen Vorfall zurückzuführen. Ziel sei es, eine branchenführende Rolle in puncto KI-Sicherheit einzunehmen.

Gleichzeitig reagiere das Unternehmen auf Warnungen von US-Behörden, die vor zunehmender Wirtschaftsspionage durch ausländische Akteure, insbesondere aus China, warnen. Im globalen KI-Wettlauf wird der Diebstahl von Technologie als Bedrohung für nationale und wirtschaftliche Sicherheit eingestuft.

Erst kürzlich warnten OpenAI und Anthropic gemeinsam die US-Regierung vor dem chinesischen Modell Deepseek R1, das aufgrund staatlicher Kontrolle und weitreichender Datenzugriffe als strategische Bedrohung gilt. Parallel dazu überarbeitete OpenAI sein sogenanntes Preparedness Framework, um Hochrisiko-Fähigkeiten wie autonome Replikation oder Cyberangriffe systematischer durch verschärfte Kriterien und automatisierte Tests zu erfassen.

Anzeige
Anzeige
Community beitreten
Kommt in die DECODER-Community bei Discord,Reddit, Twitter und Co. - wir freuen uns auf euch!
Empfehlung
Unterstütze unsere unabhängige, frei zugängliche Berichterstattung. Jeder Betrag hilft und sichert unsere Zukunft. Jetzt unterstützen:
Banküberweisung
Zusammenfassung
  • OpenAI verschärft den Schutz seiner KI-Modelle, nachdem Vorwürfe laut wurden, dass das chinesische Start-up Deepseek unerlaubt OpenAI-Modelle zur Entwicklung eigener Systeme genutzt haben soll.
  • Maßnahmen umfassen eingeschränkten Zugang zu Informationen, biometrische Kontrollen und strengere Datentrennung. Die physische Sicherheit wurde durch neue Zutrittsregeln in Rechenzentren und die Einstellung von Sicherheitsexperten mit militärischem Hintergrund weiter erhöht.
  • OpenAI reagiert mit den Maßnahmen auch auf Warnungen der US-Behörden vor Wirtschaftsspionage, insbesondere aus China, und sieht den Diebstahl von KI-Technologie als Bedrohung für nationale und wirtschaftliche Sicherheit.
Quellen
Online-Journalist Matthias ist Gründer und Herausgeber von THE DECODER. Er ist davon überzeugt, dass Künstliche Intelligenz die Beziehung zwischen Mensch und Computer grundlegend verändern wird.
Community beitreten
Kommt in die DECODER-Community bei Discord,Reddit, Twitter und Co. - wir freuen uns auf euch!