OpenAI bringt spezielles Cyber-Sicherheitsmodell heraus und weitet Zugang für Verteidiger aus
Kurz & Knapp
- OpenAI veröffentlicht GPT-5.4-Cyber, eine speziell für defensive Cybersicherheit abgestimmte Modellvariante, die unter anderem Binary Reverse Engineering ermöglicht. Der Zugang ist zunächst auf einige Hundert verifizierte Sicherheitsexperten beschränkt.
- Das Modell konkurriert direkt mit Anthropics Claude Mythos, das eine Woche zuvor vorgestellt wurde und auf das Aufspüren von Schwachstellen in Betriebssystemen und Browsern spezialisiert ist.
- Ergänzend verweist OpenAI auf sein Tool Codex Security, das zur Behebung von über 3.000 kritischen Schwachstellen beigetragen haben soll, sowie auf ein Förderprogramm mit 10 Millionen Dollar für Cybersicherheitsprojekte.
OpenAI veröffentlicht mit GPT-5.4-Cyber ein Modell, das gezielt für defensive Cybersicherheit trainiert wurde. Der Zugang bleibt vorerst auf verifizierte Sicherheitsexperten beschränkt.
OpenAI erweitert sein Programm "Trusted Access for Cyber" (TAC) und stellt ein neues, speziell für Cybersicherheit feinabgestimmtes Modell bereit: GPT-5.4-Cyber. Dabei handelt es sich laut OpenAI um eine Variante von GPT-5.4, die für defensive Sicherheitsarbeit weniger restriktiv reagiert und unter anderem Binary Reverse Engineering ermöglicht, also die Analyse kompilierter Software ohne Zugang zum Quellcode.
Zunächst erhalten einige Hundert Nutzer Zugang, bevor das Programm in den kommenden Wochen auf Tausende verifizierte Einzelpersonen und Hunderte Teams ausgeweitet werden soll. Weil das Modell permissiver ist, gelten strengere Kontrollen: Zugang über Drittplattformen oder bei Zero-Data-Retention kann eingeschränkt werden.
Die Veröffentlichung fällt in einen direkten Wettbewerb mit Anthropic. Der Konkurrent stellte nur eine Woche zuvor sein KI-Modell Claude Mythos vor, das auf das Aufspüren und Ausnutzen von Schwachstellen in Betriebssystemen und Browsern spezialisiert ist und ebenfalls nur einem eingeschränkten Nutzerkreis zur Verfügung steht.
Codex Security als Ökosystem-Baustein
Neben dem neuen Modell verweist OpenAI auf sein bestehendes Sicherheitswerkzeug Codex Security, das automatisch Schwachstellen in Codebasen identifiziert und Korrekturen vorschlägt. Seit dem Start habe das System zur Behebung von über 3.000 kritischen Schwachstellen beigetragen. Ergänzend stellt OpenAI über sein Cybersecurity Grant Program 10 Millionen Dollar bereit und erreichte mit kostenlosem Sicherheits-Scanning über 1.000 Open-Source-Projekte.
Mythos sorgte laut Bloomberg bereits für Unruhe bei Finanzfirmen und US-Behörden. Bei einem Treffen mit Wall-Street-Führungskräften warnten US-Finanzminister Scott Bessent und Fed-Chef Jerome Powell, das Modell ernst zu nehmen. Das Technologieteam des US-Finanzministeriums versucht demnach, selbst Zugang zu Mythos zu erhalten, um die eigenen Systeme auf Schwachstellen zu prüfen.
KI-News ohne Hype – von Menschen kuratiert
Mit dem THE‑DECODER‑Abo liest du werbefrei und wirst Teil unserer Community: Diskutiere im Kommentarsystem, erhalte unseren wöchentlichen KI‑Newsletter, 6× im Jahr den "KI Radar"‑Frontier‑Newsletter mit den neuesten Entwicklungen aus der Spitze der KI‑Forschung, bis zu 25 % Rabatt auf KI Pro‑Events und Zugriff auf das komplette Archiv der letzten zehn Jahre.
Jetzt abonnieren