Anzeige
Skip to content

OpenAI verschärft Sicherheitsmaßnahmen zum Schutz vor Modell-Diebstahl

Image description
Sora prompted by THE DECODER

OpenAI will seine KI-Produkte künftig besser vor Trittbrettfahrern schützen – auch als Reaktion auf den zunehmend verbissenen Wettbewerb unter KI-Modellherstellern.

Auslöser für die neuen Maßnahmen waren unter anderem Vorwürfe gegen chinesische Konkurrenten wie das Start-up Deepseek. Dieses soll durch sogenannte "Distillation" unerlaubt Modelle von OpenAI zur Entwicklung eigener Systeme wie R1 verwendet haben. Deepseek hat sich zu den Anschuldigungen bislang nicht geäußert.

Laut Informationen der Financial Times hat OpenAI daraufhin den Zugang zu sensiblen Informationen eingeschränkt, biometrische Zugangskontrollen eingeführt und neue Vorschriften zur Datentrennung umgesetzt.

Eine zentrale Maßnahme: Systeme erhalten grundsätzlich keinen Internetzugang, es sei denn, dieser wird ausdrücklich genehmigt. So sollen Modellgewichte besser vor unautorisiertem Zugriff geschützt werden.

Anzeige
DEC_D_Incontent-1

Zudem dürfen Mitarbeitende nur noch auf Projekte zugreifen, für die sie explizit freigegeben wurden. Intern bezeichnet OpenAI diese strikte Zugriffskontrolle als "Information Tenting". So mussten etwa alle Beteiligten am damals neuen Modell "o1" mit dem Codenamen "Strawberry" sicherstellen, dass Gespräche dazu ausschließlich mit ebenfalls autorisierten Kolleginnen und Kollegen geführt wurden.

Auch die physische Sicherheit wurde erhöht: In den Rechenzentren gelten verschärfte Zutrittsregeln, und das Unternehmen hat Sicherheitsexperten mit militärischem Hintergrund eingestellt – darunter Dane Stuckey (zuvor Palantir) sowie den früheren US-General Paul Nakasone.

US-KI-Unternehmen machen die Schotten vor China dicht

Laut OpenAI sind die Maßnahmen Teil einer umfassenden Investition in Sicherheitsprogramme und nicht auf einen einzelnen Vorfall zurückzuführen. Ziel sei es, eine branchenführende Rolle in puncto KI-Sicherheit einzunehmen.

Gleichzeitig reagiere das Unternehmen auf Warnungen von US-Behörden, die vor zunehmender Wirtschaftsspionage durch ausländische Akteure, insbesondere aus China, warnen. Im globalen KI-Wettlauf wird der Diebstahl von Technologie als Bedrohung für nationale und wirtschaftliche Sicherheit eingestuft.

Anzeige
DEC_D_Incontent-2

Erst kürzlich warnten OpenAI und Anthropic gemeinsam die US-Regierung vor dem chinesischen Modell Deepseek R1, das aufgrund staatlicher Kontrolle und weitreichender Datenzugriffe als strategische Bedrohung gilt. Parallel dazu überarbeitete OpenAI sein sogenanntes Preparedness Framework, um Hochrisiko-Fähigkeiten wie autonome Replikation oder Cyberangriffe systematischer durch verschärfte Kriterien und automatisierte Tests zu erfassen.

KI-News ohne Hype – von Menschen kuratiert

Mit dem THE‑DECODER‑Abo liest du werbefrei und wirst Teil unserer Community: Diskutiere im Kommentarsystem, erhalte unseren wöchentlichen KI‑Newsletter, 6× im Jahr den „KI Radar"‑Frontier‑Newsletter mit den neuesten Entwicklungen aus der Spitze der KI‑Forschung, bis zu 25 % Rabatt auf KI Pro‑Events und Zugriff auf das komplette Archiv der letzten zehn Jahre.

Quelle: Financial Times

KI-News ohne Hype
Von Menschen kuratiert.

  • Mehr als 20 Prozent Launch-Rabatt.
  • Lesen ohne Ablenkung – keine Google-Werbebanner.
  • Zugang zum Kommentarsystem und Austausch mit der Community.
  • Wöchentlicher KI-Newsletter.
  • 6× jährlich: „KI Radar“ – Deep-Dives zu den wichtigsten KI-Themen.
  • Bis zu 25 % Rabatt auf KI Pro Online-Events.
  • Zugang zum kompletten Archiv der letzten zehn Jahre.
  • Die neuesten KI‑Infos von The Decoder – klar und auf den Punkt.
The Decoder abonnieren