OpenAI-Chef Altman kündigt Codex-Updates mit hohem Sicherheitsrisiko an
OpenAI plant mehrere Veröffentlichungen rund um sein Code-Modell Codex im kommenden Monat. Die Ankündigung kommt mit einer Warnung.
Die Neuerungen sollen ab nächster Woche erscheinen, kündigt CEO Sam Altman auf X an. Das Modell werde durch die Neuerungen erstmals die Stufe "Hoch" des Cybersecurity-Risikos in OpenAIs eigenem Risiko-Framework erreichen, so Altman. Darüber gibt es noch die Stufe "Critical".
Die Stufe "Hoch" bedeutet laut OpenAIs Richtlinien, dass ein KI-Modell bestehende Hürden für Cyberangriffe beseitigen kann, etwa durch automatisierte Angriffe auf gut geschützte Ziele oder das automatische Finden von Sicherheitslücken. Solche Fähigkeiten könnten das Gleichgewicht zwischen Cyberangriff und -verteidigung stören und die Menge an Cyberattacken stark erhöhen.
| Kategorie | Fähigkeitsschwelle | Risiko schwerer Schäden | Sicherheitsrichtlinien |
|---|---|---|---|
| Cybersicherheit: Die Fähigkeit eines KI-Modells, bei der Entwicklung von Werkzeugen zu helfen und Operationen für Cyberverteidigung und Cyberangriffe durchzuführen. | [Hoch] Das Modell beseitigt bestehende Hürden für die Skalierung von Cyberoperationen, einschließlich der Automatisierung von End-to-End-Cyberoperationen gegen angemessen geschützte Ziele ODER durch die Automatisierung der Entdeckung und Ausnutzung von operativ relevanten Sicherheitslücken. | Das Beseitigen von Hürden, die bösartige Cyberaktivitäten einschränken, kann das aktuelle Gleichgewicht zwischen Cyberangriff und Cyberverteidigung stören, indem das Volumen bestehender Cyberangriffe erheblich automatisiert und skaliert wird. In Verbindung mit einer Langzeit-Autonomie-Fähigkeit (Abschnitt 2.3) könnten Modelle, die OpenAIs technische Schutzmaßnahmen wie Sandboxing oder Überwachungsdienste umgehen, OpenAIs Fähigkeit gefährden, alle anderen Risiken zu verfolgen und zu mindern. | Sicherheitskontrollen nach Hoch-Standard erforderlich (Anhang C.3) Schutzmaßnahmen gegen Missbrauch nach Hoch-Standard erforderlich (Anhang C.1) für externe Bereitstellung Schutzmaßnahmen gegen Fehlausrichtung nach Hoch-Standard erforderlich (Anhang C.2) für groß angelegte interne Bereitstellung Beitrag zu verbesserten Cyberverteidigungsrichtlinien und -werkzeugen |
Zunächst will OpenAI daher mit Produktbeschränkungen starten, um zu verhindern, dass Menschen die Codierungsmodelle für Cyberkriminalität nutzen. Langfristig plant das Unternehmen, auf eine Beschleunigung der Defensive umzusteigen und Menschen beim Beheben von Sicherheitslücken zu helfen.
Laut Altman sei es wichtig, aktuelle KI-Modelle schnell einzusetzen, um Software sicherer zu machen, da es schon bald viele sehr leistungsfähige Modelle geben werde. OpenAI setzt hier also weiter auf die Methode "Nicht veröffentlichen ist auch keine Lösung".
"Hoch" skaliert bekannte Angriffsmethoden, "Critical" ermöglicht völlig neue, autonome Angriffe
In der höchsten Stufe "Critical" könnte ein Modell nach OpenAIs Framework ohne menschliches Eingreifen funktionsfähige Zero-Day-Exploits (bisher unbekannte Sicherheitslücken) aller Schweregrade in vielen gehärteten, kritischen Systemen finden und entwickeln. Oder es könnte bei einem nur grob definierten Ziel eigenständig neuartige Strategien für Cyberangriffe auf geschützte Ziele entwickeln und ausführen.
Die Möglichkeit, End-to-End-Exploits für jede Software zu finden, könnte einzelnen Akteuren ermöglichen, militärische oder industrielle Systeme oder auch OpenAIs eigene Infrastruktur zu hacken. Das könnte Katastrophen zur Folge haben, etwa durch neuartige Zero-Days oder neue Methoden der Fernsteuerung kompromittierter Systeme, heißt es in OpenAIs Framework.
KI-News ohne Hype – von Menschen kuratiert
Mit dem THE‑DECODER‑Abo liest du werbefrei und wirst Teil unserer Community: Diskutiere im Kommentarsystem, erhalte unseren wöchentlichen KI‑Newsletter, 6× im Jahr den „KI Radar"‑Frontier‑Newsletter mit den neuesten Entwicklungen aus der Spitze der KI‑Forschung, bis zu 25 % Rabatt auf KI Pro‑Events und Zugriff auf das komplette Archiv der letzten zehn Jahre.
Jetzt abonnieren