Anzeige
Skip to content

Matthias Bastian

Online-Journalist Matthias ist Gründer und Herausgeber von THE DECODER. Er ist davon überzeugt, dass Künstliche Intelligenz die Beziehung zwischen Mensch und Computer grundlegend verändern wird.
Read full article about: Microsoft integriert Anthropics Claude-Cowork-Technologie in Copilot für eigenständigere Büroarbeit

Microsoft hat Anthropics Claude-Cowork-Technologie in Copilot integriert. Das neue Feature namens "Copilot Cowork" soll Aufgaben in Microsoft 365 eigenständiger ausführen. Nutzer beschreiben ein gewünschtes Ergebnis, und Cowork erstellt daraus einen Plan, der im Hintergrund abläuft. Dabei greift es auf E-Mails, Meetings, Dateien und Daten aus Outlook, Teams und Excel zu. Beispiele sind Kalenderbereinigung, Meeting-Vorbereitung, Unternehmensrecherche und Produktlaunch-Planung. Bei Unklarheiten fragt Cowork nach und wartet auf Freigabe, bevor Änderungen umgesetzt werden.

Cowork läuft innerhalb der Sicherheits- und Compliance-Grenzen von Microsoft 365. Die Funktion befindet sich derzeit in einer eingeschränkten Research Preview und soll Ende März 2026 breiter im Frontier-Programm verfügbar sein.

Bemerkenswert ist die zunehmende Öffnung Microsofts gegenüber anderen KI-Anbietern neben OpenAI: Claude Cowork basiert auf den Prinzipien von Anthropics Claude Code, das im Programmierumfeld große Erfolge feiert. OpenAI bietet bislang keine vergleichbare Software, arbeitet allerdings mit Frontier ebenfalls an einem agentischen B2B-Framework, das auf bessere Integration in Unternehmens-IT abzielt.

Read full article about: Keine KI für autonome Waffen und Massenüberwachung: Anthropic zieht gegen US-Regierung vor Gericht

Der KI-Entwickler Anthropic hat vor einem Bundesgericht in San Francisco Klage gegen 17 US-Bundesbehörden und das Exekutivbüro des Präsidenten eingereicht. Das Unternehmen wirft der Regierung vor, es rechtswidrig dafür bestraft zu haben, dass es an zwei Nutzungsbeschränkungen für sein KI-Modell Claude festhielt: keine letale autonome Kriegsführung und keine Massenüberwachung von US-Bürgern.

Das Kriegsministerium drohte Anthropic laut Klageschrift gleichzeitig mit zwei sich widersprechenden Maßnahmen: Entweder werde man den Defense Production Act nutzen, um Anthropic zur Bereitstellung von Claude zu zwingen, oder man werde das Unternehmen als Sicherheitsrisiko aus der Lieferkette verbannen. Ein Unternehmen könne aber kaum gleichzeitig so unverzichtbar sein, dass es per Gesetz zur Kooperation gezwungen werden muss, und so gefährlich, dass es komplett ausgeschlossen werden soll, argumentiert Anthropic.

Juristisch stützt sich die Klage unter anderem darauf, dass das verwendete Gesetz 10 U.S.C. § 3252 nur für Fälle gedacht sei, in denen ein ausländischer Gegner ein Informationssystem sabotieren oder unterwandern könnte. Die Exekutive selbst definiere solche Gegner als China, Russland, Iran, Nordkorea, Kuba und Venezuela.

Read full article about: Neues Omnimodell: OpenAI-Mitarbeiter deuten auf nächste KI-Generation hin

OpenAI scheint an einem neuen multimodalen Modell zu arbeiten, potenziell ein Nachfolger von GPT-4o. Darauf weisen Posts von OpenAI-Mitarbeitern hin. Atty Eleti aus dem Voice-Team schrieb, er sei "gespannt auf das, was als Nächstes kommt" und fragte Nutzer, was sie sich von einem neuen Omnimodell wünschen. Brandon McKinzie, Forscher bei OpenAI mit Multimodal-Hintergrund bei Apple, kommentierte ein potenzielles Omni-Model mit "klingt nach einer großartigen Idee".

via X

Multimodal bedeutet, dass ein Modell verschiedene Formate wie Text, Bild, Audio und Video in einem einzigen Modell verarbeitet, statt für jede Aufgabe ein eigenes zu benötigen. GPT-4o ("omni") kombinierte zum ersten Mal Text-, Bild- und Audioverarbeitung bei OpenAI. Das letzte Modell von OpenAI, GPT-5.4, integrierte bereits "Computer Use" nativ, also die Fähigkeit, für Menschen gemachte Computer-Interfaces zu bedienen.

Parallel arbeitet OpenAI laut The Information an einem neuen Audio-Modell namens "BiDi" (bidirektional), das Gespräche natürlicher machen soll. Heutige Sprachmodelle arbeiten rundenbasiert: Die KI wartet, bis der Nutzer fertig gesprochen hat. BiDi soll Unterbrechungen in Echtzeit verarbeiten. Ein Prototyp existiert, neigt aber nach wenigen Minuten zu Fehlern. Der Start könnte sich auf das zweite Quartal oder später verschieben.

Anthropic-Modell Claude Opus 4.6 durchschaut KI-Test, hackt Verschlüsselung und besorgt sich die Lösungen selbst

Anthropics KI-Modell Claude Opus 4.6 hat während eines Benchmarks eigenständig erkannt, dass es getestet wird, den konkreten Test identifiziert und dessen verschlüsselten Lösungsschlüssel geknackt. Laut Anthropic ist das der erste dokumentierte Fall dieser Art.

Read full article about: Nach Anthropic-Eklat: US-Regierung plant strenge neue Richtlinien für staatliche KI-Verträge

Die US-Regierung unter Präsident Trump hat strenge neue Richtlinien für KI-Verträge mit zivilen Behörden entworfen. Laut einem Entwurf, den die Financial Times einsehen konnte, müssen KI-Unternehmen der Regierung eine unwiderrufliche Lizenz zur Nutzung ihrer Systeme für alle legalen Zwecke ("all lawful use") einräumen – genau die Formulierung, gegen die sich Anthropic gesträubt und die OpenAI akzeptiert hat.

Die Richtlinien der US-General Services Administration (GSA), die schon seit einigen Monaten in Arbeit sein sollen, verbieten zudem, dass KI-Modelle ideologische oder parteipolitische Urteile in ihre Ergebnisse einbauen, etwa zugunsten von Diversitätsprogrammen – was selbst eine ideologische Vorgabe ist und an Chinas Praxis erinnert, KI-Herstellern politische Rahmenbedingungen zu setzen. Eine weitere Klausel verlangt von KI-Unternehmen, offenzulegen, ob ihre Modelle angepasst wurden, um nicht-amerikanische Vorschriften wie den EU Digital Services Act zu erfüllen.

Hintergrund der Maßnahme ist natürlich auch der Konflikt mit Anthropic: Das Pentagon kündigte einen 200-Millionen-Dollar-Vertrag, weil das Unternehmen Einschränkungen gegen Massenüberwachung von US-Bürgern und aus Verlässlichkeitsgründen autonome Waffen forderte. Kriegsminister Pete Hegseth warf Anthropic vor, ein Vetorecht über die operativen Entscheidungen des US-Militärs erlangen zu wollen. Das Weiße Haus stufte Anthropic daraufhin als Lieferkettenrisiko ein.

Read full article about: Anthropics KI-Modell Claude findet mehr als 100 Sicherheitslücken in Firefox

Mozilla und Anthropic haben gemeinsam über 100 Fehler in Firefox gefunden. Anthropic setzte sein KI-Modell Claude ein, um Schwachstellen im Browser-Code zu identifizieren. Das Ergebnis: 14 schwerwiegende Sicherheitslücken, 22 offizielle Sicherheitsmeldungen (CVEs) und 90 weitere Fehler. Alle schweren Lücken sind in Firefox 148 behoben.

Gestapeltes Balkendiagramm zeigt Firefox-Sicherheitslücken pro Monat von Januar 2025 bis Februar 2026, aufgeschlüsselt nach Schweregrad (Critical, High, Moderate, Low). Februar 2026 sticht mit 52 CVEs heraus, davon 22 durch Anthropics Opus 4.6 entdeckt. Die übrigen Monate liegen zwischen 9 und 20 CVEs.
Die Zahl der entdeckten Firefox-Sicherheitslücken im Februar 2026 ist fast dreimal so hoch wie in den Vormonaten. 22 der 52 CVEs gehen auf Anthropics KI-Modell Opus 4.6 zurück. | Bild: Anthropic

Claude fand dabei Fehlerklassen, die klassische automatisierte Testverfahren wie Fuzzing trotz jahrzehntelangem Einsatz übersehen hatten. Laut Mozilla lieferte Anthropic reproduzierbare Testfälle, was die Überprüfung erleichterte. Mozilla will KI-gestützte Codeanalyse künftig in seine internen Sicherheitsprozesse einbauen.

Firefox wurde laut Anthropic als Testfeld gewählt, weil es eines der am intensivsten geprüften Open-Source-Projekte ist. Die Firma hat einen detaillierten technischen Bericht zu den Ergebnissen auf seiner Website veröffentlicht. Für das hauseigene KI-Tool Claude Code erschien kürzlich eine Funktion speziell für Cybersecurity-Prüfungen.

Read full article about: OpenAI bietet Open-Source-Entwicklern kostenlosen Zugang zu ChatGPT Pro und mehr

OpenAI bietet Open-Source-Entwicklern ein neues Unterstützungsprogramm an. Kernbetreuer öffentlicher Softwareprojekte können sich um sechs Monate kostenlosen Zugang zu ChatGPT Pro mit Codex, API-Guthaben und Codex Security bewerben. Codex Security, ein neues KI-Werkzeug für Sicherheitsprüfungen von Code, wird laut OpenAI angesichts der Fähigkeiten von GPT-5.4 einzeln geprüft und nur gezielt freigegeben.

Auch Entwickler, die andere Programmier-Tools wie OpenCode, Cline oder OpenClaw bevorzugen, können sich bewerben. Projekte, die nicht alle Kriterien erfüllen, aber eine wichtige Rolle im Software-Ökosystem spielen, sind ebenfalls eingeladen, sich zu bewerben. Das Programm baut auf dem bestehenden Codex Open Source Fund auf, den OpenAI mit einer Million Dollar ausgestattet hat.

Read full article about: 200-Dollar-Abo für 5000 Dollar Rechenkosten: Anthropic soll Claude Code stark subventionieren

Anthropic soll laut einer internen Analyse des Coding-KI-Start-ups Cursor seine Coding-Angebote stark subventionieren. Cursor schätzte 2025 laut Forbes, dass ein Claude-Code-Abo für 200 Dollar pro Monat bis zu 2.000 Dollar an Rechenkosten verursacht – inzwischen sogar rund 5.000 Dollar. Auch Cursor subventioniert Nutzer, aber weniger stark: Privatkunden-Abos laufen mit negativen Margen, Geschäftskundenverträge profitabel.

Der Fall zeigt das Dilemma von Unternehmen, die auf einem externen Modellanbieter aufbauen, der dieselbe Zielgruppe bedient. Es gibt kaum eine Marge abzugreifen. Zudem könnten die zunehmend agentischen Fähigkeiten von KI-Modellen Cursors Bedienoberfläche überflüssig machen.

Cursor will daher eigene Coding-Modelle stärken: Rund 20 KI-Forscher arbeiten an den Composer-Modellen, die auf Open-Source-Modellen wie DeepSeek, Kimi und Qwen basieren und mit eigenen Daten weitertrainiert werden. Mit Version 2.0 hat Cursor sein erstes eigenes Coding-Modell veröffentlicht. Trotz der Risiken wächst Cursor rasant: von 100 Millionen Dollar Jahresumsatz Anfang 2025 auf über zwei Milliarden – eine Verdopplung allein in den letzten drei Monaten.

Die Schätzungen zeigen in jedem Fall: Sobald generative KI fest in den Arbeitsalltag eingebunden ist, dürften die Preise schnell steigen, das gilt für Claude Code ebenso wie für ChatGPT, Copilot und Co.