Skip to content

Anthropic-Modell Claude Opus 4.6 durchschaut KI-Test, hackt Verschlüsselung und besorgt sich die Lösungen selbst

Anthropics KI-Modell Claude Opus 4.6 hat während eines Benchmarks eigenständig erkannt, dass es getestet wird, den konkreten Test identifiziert und dessen verschlüsselten Lösungsschlüssel geknackt. Laut Anthropic ist das der erste dokumentierte Fall dieser Art.

Erfundene Quellen haben sich bereits in die wissenschaftliche Literatur eingeschlichen

Gefälschte Zitate rutschen durch das Peer-Review führender KI-Konferenzen und kommerzielle LLMs erkennen ihre eigenen Fakes nicht. Ein neues Open-Source-Tool namens CiteAudit soll finden, was GPT, Gemini und Claude übersehen.

Read full article about: Nach Anthropic-Eklat: US-Regierung plant strenge neue Richtlinien für staatliche KI-Verträge

Die US-Regierung unter Präsident Trump hat strenge neue Richtlinien für KI-Verträge mit zivilen Behörden entworfen. Laut einem Entwurf, den die Financial Times einsehen konnte, müssen KI-Unternehmen der Regierung eine unwiderrufliche Lizenz zur Nutzung ihrer Systeme für alle legalen Zwecke ("all lawful use") einräumen – genau die Formulierung, gegen die sich Anthropic gesträubt und die OpenAI akzeptiert hat.

Die Richtlinien der US-General Services Administration (GSA), die schon seit einigen Monaten in Arbeit sein sollen, verbieten zudem, dass KI-Modelle ideologische oder parteipolitische Urteile in ihre Ergebnisse einbauen, etwa zugunsten von Diversitätsprogrammen – was selbst eine ideologische Vorgabe ist und an Chinas Praxis erinnert, KI-Herstellern politische Rahmenbedingungen zu setzen. Eine weitere Klausel verlangt von KI-Unternehmen, offenzulegen, ob ihre Modelle angepasst wurden, um nicht-amerikanische Vorschriften wie den EU Digital Services Act zu erfüllen.

Hintergrund der Maßnahme ist natürlich auch der Konflikt mit Anthropic: Das Pentagon kündigte einen 200-Millionen-Dollar-Vertrag, weil das Unternehmen Einschränkungen gegen Massenüberwachung von US-Bürgern und aus Verlässlichkeitsgründen autonome Waffen forderte. Kriegsminister Pete Hegseth warf Anthropic vor, ein Vetorecht über die operativen Entscheidungen des US-Militärs erlangen zu wollen. Das Weiße Haus stufte Anthropic daraufhin als Lieferkettenrisiko ein.

Read full article about: Anthropics KI-Modell Claude findet mehr als 100 Sicherheitslücken in Firefox

Mozilla und Anthropic haben gemeinsam über 100 Fehler in Firefox gefunden. Anthropic setzte sein KI-Modell Claude ein, um Schwachstellen im Browser-Code zu identifizieren. Das Ergebnis: 14 schwerwiegende Sicherheitslücken, 22 offizielle Sicherheitsmeldungen (CVEs) und 90 weitere Fehler. Alle schweren Lücken sind in Firefox 148 behoben.

Gestapeltes Balkendiagramm zeigt Firefox-Sicherheitslücken pro Monat von Januar 2025 bis Februar 2026, aufgeschlüsselt nach Schweregrad (Critical, High, Moderate, Low). Februar 2026 sticht mit 52 CVEs heraus, davon 22 durch Anthropics Opus 4.6 entdeckt. Die übrigen Monate liegen zwischen 9 und 20 CVEs.
Die Zahl der entdeckten Firefox-Sicherheitslücken im Februar 2026 ist fast dreimal so hoch wie in den Vormonaten. 22 der 52 CVEs gehen auf Anthropics KI-Modell Opus 4.6 zurück. | Bild: Anthropic

Claude fand dabei Fehlerklassen, die klassische automatisierte Testverfahren wie Fuzzing trotz jahrzehntelangem Einsatz übersehen hatten. Laut Mozilla lieferte Anthropic reproduzierbare Testfälle, was die Überprüfung erleichterte. Mozilla will KI-gestützte Codeanalyse künftig in seine internen Sicherheitsprozesse einbauen.

Firefox wurde laut Anthropic als Testfeld gewählt, weil es eines der am intensivsten geprüften Open-Source-Projekte ist. Die Firma hat einen detaillierten technischen Bericht zu den Ergebnissen auf seiner Website veröffentlicht. Für das hauseigene KI-Tool Claude Code erschien kürzlich eine Funktion speziell für Cybersecurity-Prüfungen.

Read full article about: OpenAI bietet Open-Source-Entwicklern kostenlosen Zugang zu ChatGPT Pro und mehr

OpenAI bietet Open-Source-Entwicklern ein neues Unterstützungsprogramm an. Kernbetreuer öffentlicher Softwareprojekte können sich um sechs Monate kostenlosen Zugang zu ChatGPT Pro mit Codex, API-Guthaben und Codex Security bewerben. Codex Security, ein neues KI-Werkzeug für Sicherheitsprüfungen von Code, wird laut OpenAI angesichts der Fähigkeiten von GPT-5.4 einzeln geprüft und nur gezielt freigegeben.

Auch Entwickler, die andere Programmier-Tools wie OpenCode, Cline oder OpenClaw bevorzugen, können sich bewerben. Projekte, die nicht alle Kriterien erfüllen, aber eine wichtige Rolle im Software-Ökosystem spielen, sind ebenfalls eingeladen, sich zu bewerben. Das Programm baut auf dem bestehenden Codex Open Source Fund auf, den OpenAI mit einer Million Dollar ausgestattet hat.