Anzeige
Skip to content

Matthias Bastian

Online-Journalist Matthias ist Gründer und Herausgeber von THE DECODER. Er ist davon überzeugt, dass Künstliche Intelligenz die Beziehung zwischen Mensch und Computer grundlegend verändern wird.
Read full article about: Schutz vor Jailbreaks und Datenlecks: OpenAI übernimmt Sicherheitsplattform Promptfoo für Frontier

OpenAI übernimmt Promptfoo, eine Sicherheitsplattform für KI-Systeme. Promptfoo hilft Unternehmen, Schwachstellen in KI-Anwendungen während der Entwicklung zu finden und zu beheben. Die Technik soll nach Abschluss der Übernahme direkt in OpenAIs Unternehmensplattform Frontier eingebaut werden, mit der Firmen KI-Assistenten erstellen und betreiben können.

Konkret sollen automatisierte Sicherheitstests gegen Angriffe wie Prompt Injections, Jailbreaks und Datenlecks fester Bestandteil von Frontier werden. Zudem will OpenAI damit Kontrolle, Nachvollziehbarkeit und die Einhaltung von Vorschriften für KI-Systeme in Unternehmen stärken.

Promptfoo bietet auch ein viel genutztes Open-Source-Projekt, das weitergeführt werden soll. Die Übernahme ist noch nicht abgeschlossen, Details zu den finanziellen Bedingungen sind nicht bekannt. Das Start-up hatte insgesamt 23 Millionen US-Dollar von Investoren eingesammelt bei einer Bewertung von 86 Millionen US-Dollar im Sommer 2025.

Read full article about: Microsoft integriert Anthropics Claude-Cowork-Technologie in Copilot für eigenständigere Büroarbeit

Microsoft hat Anthropics Claude-Cowork-Technologie in Copilot integriert. Das neue Feature namens "Copilot Cowork" soll Aufgaben in Microsoft 365 eigenständiger ausführen. Nutzer beschreiben ein gewünschtes Ergebnis, und Cowork erstellt daraus einen Plan, der im Hintergrund abläuft. Dabei greift es auf E-Mails, Meetings, Dateien und Daten aus Outlook, Teams und Excel zu. Beispiele sind Kalenderbereinigung, Meeting-Vorbereitung, Unternehmensrecherche und Produktlaunch-Planung. Bei Unklarheiten fragt Cowork nach und wartet auf Freigabe, bevor Änderungen umgesetzt werden.

Cowork läuft innerhalb der Sicherheits- und Compliance-Grenzen von Microsoft 365. Die Funktion befindet sich derzeit in einer eingeschränkten Research Preview und soll Ende März 2026 breiter im Frontier-Programm verfügbar sein.

Bemerkenswert ist die zunehmende Öffnung Microsofts gegenüber anderen KI-Anbietern neben OpenAI: Claude Cowork basiert auf den Prinzipien von Anthropics Claude Code, das im Programmierumfeld große Erfolge feiert. OpenAI bietet bislang keine vergleichbare Software, arbeitet allerdings mit Frontier ebenfalls an einem agentischen B2B-Framework, das auf bessere Integration in Unternehmens-IT abzielt.

Read full article about: Keine KI für autonome Waffen und Massenüberwachung: Anthropic zieht gegen US-Regierung vor Gericht

Der KI-Entwickler Anthropic hat vor einem Bundesgericht in San Francisco Klage gegen 17 US-Bundesbehörden und das Exekutivbüro des Präsidenten eingereicht. Das Unternehmen wirft der Regierung vor, es rechtswidrig dafür bestraft zu haben, dass es an zwei Nutzungsbeschränkungen für sein KI-Modell Claude festhielt: keine letale autonome Kriegsführung und keine Massenüberwachung von US-Bürgern.

Das Kriegsministerium drohte Anthropic laut Klageschrift gleichzeitig mit zwei sich widersprechenden Maßnahmen: Entweder werde man den Defense Production Act nutzen, um Anthropic zur Bereitstellung von Claude zu zwingen, oder man werde das Unternehmen als Sicherheitsrisiko aus der Lieferkette verbannen. Ein Unternehmen könne aber kaum gleichzeitig so unverzichtbar sein, dass es per Gesetz zur Kooperation gezwungen werden muss, und so gefährlich, dass es komplett ausgeschlossen werden soll, argumentiert Anthropic.

Juristisch stützt sich die Klage unter anderem darauf, dass das verwendete Gesetz 10 U.S.C. § 3252 nur für Fälle gedacht sei, in denen ein ausländischer Gegner ein Informationssystem sabotieren oder unterwandern könnte. Die Exekutive selbst definiere solche Gegner als China, Russland, Iran, Nordkorea, Kuba und Venezuela.

Read full article about: Neues Omnimodell: OpenAI-Mitarbeiter deuten auf nächste KI-Generation hin

OpenAI scheint an einem neuen multimodalen Modell zu arbeiten, potenziell ein Nachfolger von GPT-4o. Darauf weisen Posts von OpenAI-Mitarbeitern hin. Atty Eleti aus dem Voice-Team schrieb, er sei "gespannt auf das, was als Nächstes kommt" und fragte Nutzer, was sie sich von einem neuen Omnimodell wünschen. Brandon McKinzie, Forscher bei OpenAI mit Multimodal-Hintergrund bei Apple, kommentierte ein potenzielles Omni-Model mit "klingt nach einer großartigen Idee".

via X

Multimodal bedeutet, dass ein Modell verschiedene Formate wie Text, Bild, Audio und Video in einem einzigen Modell verarbeitet, statt für jede Aufgabe ein eigenes zu benötigen. GPT-4o ("omni") kombinierte zum ersten Mal Text-, Bild- und Audioverarbeitung bei OpenAI. Das letzte Modell von OpenAI, GPT-5.4, integrierte bereits "Computer Use" nativ, also die Fähigkeit, für Menschen gemachte Computer-Interfaces zu bedienen.

Parallel arbeitet OpenAI laut The Information an einem neuen Audio-Modell namens "BiDi" (bidirektional), das Gespräche natürlicher machen soll. Heutige Sprachmodelle arbeiten rundenbasiert: Die KI wartet, bis der Nutzer fertig gesprochen hat. BiDi soll Unterbrechungen in Echtzeit verarbeiten. Ein Prototyp existiert, neigt aber nach wenigen Minuten zu Fehlern. Der Start könnte sich auf das zweite Quartal oder später verschieben.

Anthropic-Modell Claude Opus 4.6 durchschaut KI-Test, hackt Verschlüsselung und besorgt sich die Lösungen selbst

Anthropics KI-Modell Claude Opus 4.6 hat während eines Benchmarks eigenständig erkannt, dass es getestet wird, den konkreten Test identifiziert und dessen verschlüsselten Lösungsschlüssel geknackt. Laut Anthropic ist das der erste dokumentierte Fall dieser Art.

Read full article about: Nach Anthropic-Eklat: US-Regierung plant strenge neue Richtlinien für staatliche KI-Verträge

Die US-Regierung unter Präsident Trump hat strenge neue Richtlinien für KI-Verträge mit zivilen Behörden entworfen. Laut einem Entwurf, den die Financial Times einsehen konnte, müssen KI-Unternehmen der Regierung eine unwiderrufliche Lizenz zur Nutzung ihrer Systeme für alle legalen Zwecke ("all lawful use") einräumen – genau die Formulierung, gegen die sich Anthropic gesträubt und die OpenAI akzeptiert hat.

Die Richtlinien der US-General Services Administration (GSA), die schon seit einigen Monaten in Arbeit sein sollen, verbieten zudem, dass KI-Modelle ideologische oder parteipolitische Urteile in ihre Ergebnisse einbauen, etwa zugunsten von Diversitätsprogrammen – was selbst eine ideologische Vorgabe ist und an Chinas Praxis erinnert, KI-Herstellern politische Rahmenbedingungen zu setzen. Eine weitere Klausel verlangt von KI-Unternehmen, offenzulegen, ob ihre Modelle angepasst wurden, um nicht-amerikanische Vorschriften wie den EU Digital Services Act zu erfüllen.

Hintergrund der Maßnahme ist natürlich auch der Konflikt mit Anthropic: Das Pentagon kündigte einen 200-Millionen-Dollar-Vertrag, weil das Unternehmen Einschränkungen gegen Massenüberwachung von US-Bürgern und aus Verlässlichkeitsgründen autonome Waffen forderte. Kriegsminister Pete Hegseth warf Anthropic vor, ein Vetorecht über die operativen Entscheidungen des US-Militärs erlangen zu wollen. Das Weiße Haus stufte Anthropic daraufhin als Lieferkettenrisiko ein.

Read full article about: Anthropics KI-Modell Claude findet mehr als 100 Sicherheitslücken in Firefox

Mozilla und Anthropic haben gemeinsam über 100 Fehler in Firefox gefunden. Anthropic setzte sein KI-Modell Claude ein, um Schwachstellen im Browser-Code zu identifizieren. Das Ergebnis: 14 schwerwiegende Sicherheitslücken, 22 offizielle Sicherheitsmeldungen (CVEs) und 90 weitere Fehler. Alle schweren Lücken sind in Firefox 148 behoben.

Gestapeltes Balkendiagramm zeigt Firefox-Sicherheitslücken pro Monat von Januar 2025 bis Februar 2026, aufgeschlüsselt nach Schweregrad (Critical, High, Moderate, Low). Februar 2026 sticht mit 52 CVEs heraus, davon 22 durch Anthropics Opus 4.6 entdeckt. Die übrigen Monate liegen zwischen 9 und 20 CVEs.
Die Zahl der entdeckten Firefox-Sicherheitslücken im Februar 2026 ist fast dreimal so hoch wie in den Vormonaten. 22 der 52 CVEs gehen auf Anthropics KI-Modell Opus 4.6 zurück. | Bild: Anthropic

Claude fand dabei Fehlerklassen, die klassische automatisierte Testverfahren wie Fuzzing trotz jahrzehntelangem Einsatz übersehen hatten. Laut Mozilla lieferte Anthropic reproduzierbare Testfälle, was die Überprüfung erleichterte. Mozilla will KI-gestützte Codeanalyse künftig in seine internen Sicherheitsprozesse einbauen.

Firefox wurde laut Anthropic als Testfeld gewählt, weil es eines der am intensivsten geprüften Open-Source-Projekte ist. Die Firma hat einen detaillierten technischen Bericht zu den Ergebnissen auf seiner Website veröffentlicht. Für das hauseigene KI-Tool Claude Code erschien kürzlich eine Funktion speziell für Cybersecurity-Prüfungen.

Read full article about: OpenAI bietet Open-Source-Entwicklern kostenlosen Zugang zu ChatGPT Pro und mehr

OpenAI bietet Open-Source-Entwicklern ein neues Unterstützungsprogramm an. Kernbetreuer öffentlicher Softwareprojekte können sich um sechs Monate kostenlosen Zugang zu ChatGPT Pro mit Codex, API-Guthaben und Codex Security bewerben. Codex Security, ein neues KI-Werkzeug für Sicherheitsprüfungen von Code, wird laut OpenAI angesichts der Fähigkeiten von GPT-5.4 einzeln geprüft und nur gezielt freigegeben.

Auch Entwickler, die andere Programmier-Tools wie OpenCode, Cline oder OpenClaw bevorzugen, können sich bewerben. Projekte, die nicht alle Kriterien erfüllen, aber eine wichtige Rolle im Software-Ökosystem spielen, sind ebenfalls eingeladen, sich zu bewerben. Das Programm baut auf dem bestehenden Codex Open Source Fund auf, den OpenAI mit einer Million Dollar ausgestattet hat.