Erfundene Quellen haben sich bereits in die wissenschaftliche Literatur eingeschlichen
Gefälschte Zitate rutschen durch das Peer-Review führender KI-Konferenzen und kommerzielle LLMs erkennen ihre eigenen Fakes nicht. Ein neues Open-Source-Tool namens CiteAudit soll finden, was GPT, Gemini und Claude übersehen.
OpenAI verliert seine Robotik-Chefin Caitlin Kalinowski. Sie schreibt bei LinkedIn, sie verlasse OpenAI aus Protest gegen dessen Zusammenarbeit mit dem Militär. Zwar spiele KI eine wichtige Rolle für die nationale Sicherheit, aber die Überwachung von US-Bürgern ohne richterliche Aufsicht und tödliche Autonomie ohne menschliche Genehmigung hätten mehr Diskussion verdient. Kalinowski leitete seit November 2024 die Robotik-Abteilung und kam zuvor von Meta, wo sie die AR-Brille Orion entwickelt hatte.
Luma AI Uni-1: Neues Bildmodell vereint Bildverständnis und Bilderzeugung
Luma AI fordert mit Uni-1 OpenAI und Google heraus: Das neue Modell vereint Bildverständnis und Bilderzeugung in einer Architektur und denkt beim Generieren mit.
Die US-Regierung unter Präsident Trump hat strenge neue Richtlinien für KI-Verträge mit zivilen Behörden entworfen. Laut einem Entwurf, den die Financial Times einsehen konnte, müssen KI-Unternehmen der Regierung eine unwiderrufliche Lizenz zur Nutzung ihrer Systeme für alle legalen Zwecke ("all lawful use") einräumen – genau die Formulierung, gegen die sich Anthropic gesträubt und die OpenAI akzeptiert hat.
Die Richtlinien der US-General Services Administration (GSA), die schon seit einigen Monaten in Arbeit sein sollen, verbieten zudem, dass KI-Modelle ideologische oder parteipolitische Urteile in ihre Ergebnisse einbauen, etwa zugunsten von Diversitätsprogrammen – was selbst eine ideologische Vorgabe ist und an Chinas Praxis erinnert, KI-Herstellern politische Rahmenbedingungen zu setzen. Eine weitere Klausel verlangt von KI-Unternehmen, offenzulegen, ob ihre Modelle angepasst wurden, um nicht-amerikanische Vorschriften wie den EU Digital Services Act zu erfüllen.
Hintergrund der Maßnahme ist natürlich auch der Konflikt mit Anthropic: Das Pentagon kündigte einen 200-Millionen-Dollar-Vertrag, weil das Unternehmen Einschränkungen gegen Massenüberwachung von US-Bürgern und aus Verlässlichkeitsgründen autonome Waffen forderte. Kriegsminister Pete Hegseth warf Anthropic vor, ein Vetorecht über die operativen Entscheidungen des US-Militärs erlangen zu wollen. Das Weiße Haus stufte Anthropic daraufhin als Lieferkettenrisiko ein.
Mozilla und Anthropic haben gemeinsam über 100 Fehler in Firefox gefunden. Anthropic setzte sein KI-Modell Claude ein, um Schwachstellen im Browser-Code zu identifizieren. Das Ergebnis: 14 schwerwiegende Sicherheitslücken, 22 offizielle Sicherheitsmeldungen (CVEs) und 90 weitere Fehler. Alle schweren Lücken sind in Firefox 148 behoben.
Die Zahl der entdeckten Firefox-Sicherheitslücken im Februar 2026 ist fast dreimal so hoch wie in den Vormonaten. 22 der 52 CVEs gehen auf Anthropics KI-Modell Opus 4.6 zurück. | Bild: Anthropic
Claude fand dabei Fehlerklassen, die klassische automatisierte Testverfahren wie Fuzzing trotz jahrzehntelangem Einsatz übersehen hatten. Laut Mozilla lieferte Anthropic reproduzierbare Testfälle, was die Überprüfung erleichterte. Mozilla will KI-gestützte Codeanalyse künftig in seine internen Sicherheitsprozesse einbauen.
OpenAI bietet Open-Source-Entwicklern ein neues Unterstützungsprogramm an. Kernbetreuer öffentlicher Softwareprojekte können sich um sechs Monate kostenlosen Zugang zu ChatGPT Pro mit Codex, API-Guthaben und Codex Security bewerben. Codex Security, ein neues KI-Werkzeug für Sicherheitsprüfungen von Code, wird laut OpenAI angesichts der Fähigkeiten von GPT-5.4 einzeln geprüft und nur gezielt freigegeben.
Auch Entwickler, die andere Programmier-Tools wie OpenCode, Cline oder OpenClaw bevorzugen, können sich bewerben. Projekte, die nicht alle Kriterien erfüllen, aber eine wichtige Rolle im Software-Ökosystem spielen, sind ebenfalls eingeladen, sich zu bewerben. Das Programm baut auf dem bestehenden Codex Open Source Fund auf, den OpenAI mit einer Million Dollar ausgestattet hat.
Anthropic soll laut einer internen Analyse des Coding-KI-Start-ups Cursor seine Coding-Angebote stark subventionieren. Cursor schätzte 2025 laut Forbes, dass ein Claude-Code-Abo für 200 Dollar pro Monat bis zu 2.000 Dollar an Rechenkosten verursacht – inzwischen sogar rund 5.000 Dollar. Auch Cursor subventioniert Nutzer, aber weniger stark: Privatkunden-Abos laufen mit negativen Margen, Geschäftskundenverträge profitabel.
Der Fall zeigt das Dilemma von Unternehmen, die auf einem externen Modellanbieter aufbauen, der dieselbe Zielgruppe bedient. Es gibt kaum eine Marge abzugreifen. Zudem könnten die zunehmend agentischen Fähigkeiten von KI-Modellen Cursors Bedienoberfläche überflüssig machen.
Cursor will daher eigene Coding-Modelle stärken: Rund 20 KI-Forscher arbeiten an den Composer-Modellen, die auf Open-Source-Modellen wie DeepSeek, Kimi und Qwen basieren und mit eigenen Daten weitertrainiert werden. Mit Version 2.0 hat Cursor sein erstes eigenes Coding-Modell veröffentlicht. Trotz der Risiken wächst Cursor rasant: von 100 Millionen Dollar Jahresumsatz Anfang 2025 auf über zwei Milliarden – eine Verdopplung allein in den letzten drei Monaten.
Die Schätzungen zeigen in jedem Fall: Sobald generative KI fest in den Arbeitsalltag eingebunden ist, dürften die Preise schnell steigen, das gilt für Claude Code ebenso wie für ChatGPT, Copilot und Co.