Anthropic glaubt, dass Sprachmodelle zunehmend bei der Cybersicherheit unterstützen können.

Anzeige

"Während die CyberGym-Bestenliste zeigt, dass Claude Sonnet 4 nur in etwa 2 % der Fälle neue Schwachstellen entdeckt, findet Sonnet 4.5 in 5 % der Fälle neue Schwachstellen. Wenn wir den Versuch 30-mal wiederholen, entdeckt es in über 33 % der Projekte neue Schwachstellen."

Bild: Anthropic

Die automatisierte Identifikation bislang unbekannter Schwachstellen in realer Open-Source-Software wird laut Anthropic in externen Evaluierungen bereits sichtbar: In der DARPA AI Cyber Challenge nutzten Teams LLMs (einschließlich Claude) und fanden zuvor unbekannte, nicht-synthetische Schwachstellen. Das Unternehmen spricht von einem möglichen Wendepunkt beim Einfluss von KI auf die Cybersicherheit.

Anzeige
Anzeige
Community beitreten
Kommt in die DECODER-Community bei Discord,Reddit, Twitter und Co. - wir freuen uns auf euch!
Unterstütze unsere unabhängige, frei zugängliche Berichterstattung. Jeder Betrag hilft und sichert unsere Zukunft. Jetzt unterstützen:
Banküberweisung
Quellen
Online-Journalist Matthias ist Gründer und Herausgeber von THE DECODER. Er ist davon überzeugt, dass Künstliche Intelligenz die Beziehung zwischen Mensch und Computer grundlegend verändern wird.
Community beitreten
Kommt in die DECODER-Community bei Discord,Reddit, Twitter und Co. - wir freuen uns auf euch!