OpenAIs Aardvark soll Software automatisch auf Sicherheitslücken untersuchen
OpenAI testet derzeit Aardvark, ein KI-gestütztes Sicherheitswerkzeug, das Software-Code auf Schwachstellen untersucht. Das System basiert auf GPT-5 und soll wie ein Sicherheitsexperte arbeiten: Es analysiert Code-Repositorien, bewertet potenzielle Risiken, prüft ihre Ausnutzbarkeit in einer Testumgebung und schlägt mögliche Korrekturen vor.
In Tests erkannte die Software laut OpenAI 92 Prozent bekannter und künstlich eingefügter Schwachstellen. Auch in Open-Source-Projekten wurde Aardvark eingesetzt; dabei identifizierte es mehrere Sicherheitsprobleme, die unter anderem mit CVE-Nummern (Common Vulnerabilities and Exposures) versehen wurden.

Aardvark kommt bereits in internen Systemen und bei ausgewählten Partnern zum Einsatz, ist aber derzeit nur in einer geschlossenen Betaversion verfügbar, auf die man sich hier bewerben kann. Ein ähnliches Open-Source-Tool gibt es von Anthropic für Claude.