Gefahr durch KI-Hacks: Offensive Cyberfähigkeit von KI-Modellen wächst rasant
Die AI-Safety-Research-Firma Lyptus Research hat eine neue Studie zur offensiven Cybersicherheitsfähigkeit von KI-Modellen veröffentlicht. Sie basiert auf der METR-Zeithorizont-Methode und einer Untersuchung mit zehn professionellen Sicherheitsexperten.
Die offensive Cyberfähigkeit von KI verdoppelt sich laut der Studie seit 2019 alle 9,8 Monate, seit 2024 sogar alle 5,7 Monate. Opus 4.6 und GPT-5.3 Codex lösen bei einem Token-Budget von zwei Millionen Aufgaben mit 50 Prozent Erfolg, für die menschliche Experten rund drei Stunden benötigen.

Bei höherem Token-Budget steigt die Leistung deutlich: GPT-5.3 Codex springt bei zehn Millionen Token von 3,1 auf 10,5 Stunden Zeithorizont. Die Forscher gehen daher davon aus, dass sie das tatsächliche Angriffsrisiko noch unterschätzen. Open-Source-Modelle liegen etwa 5,7 Monate hinter den geschlossenen Modellen.
Insgesamt flossen 291 Aufgaben in die Bewertung ein. Alle Daten sind auf GitHub und Hugging Face verfügbar, der umfassende Report hier.
KI-News ohne Hype – von Menschen kuratiert
Mit dem THE‑DECODER‑Abo liest du werbefrei und wirst Teil unserer Community: Diskutiere im Kommentarsystem, erhalte unseren wöchentlichen KI‑Newsletter, 6× im Jahr den "KI Radar"‑Frontier‑Newsletter mit den neuesten Entwicklungen aus der Spitze der KI‑Forschung, bis zu 25 % Rabatt auf KI Pro‑Events und Zugriff auf das komplette Archiv der letzten zehn Jahre.
Jetzt abonnieren