Online-Journalist Matthias ist Gründer und Herausgeber von THE DECODER. Er ist davon überzeugt, dass Künstliche Intelligenz die Beziehung zwischen Mensch und Computer grundlegend verändern wird.
Amazon hat vor einem Bundesgericht in San Francisco eine einstweilige Verfügung gegen das KI-Startup Perplexity erwirkt. Das Unternehmen muss vorerst aufhören, seinen KI-Browseragenten Comet für Einkäufe auf Amazon einzusetzen.
Amazon hatte Perplexity im November verklagt und dem Startup Betrug vorgeworfen, weil Comet nicht offenlege, wenn es im Namen einer realen Person einkaufe, und Amazons Aufforderung ignoriere, damit aufzuhören. Richterin Maxine Chesney befand, Amazon habe starke Beweise vorgelegt, dass Perplexity zwar mit Erlaubnis der Nutzer, aber ohne Autorisierung durch Amazon auf deren passwortgeschützte Konten zugreife. Perplexity muss zudem Kopien von Amazon-Daten löschen und hat eine Woche Zeit für eine Berufung.
ChatGPT erklärt Mathe und Physik jetzt mit interaktiven Visualisierungen. OpenAI führt in ChatGPT dynamische visuelle Erklärungen für mehr als 70 Konzepte aus Mathematik und Naturwissenschaften ein. Nutzer sollen Variablen in Echtzeit verändern und die Auswirkungen auf Graphen und Formeln direkt beobachten können. Allerdings ist die Themenliste derzeit primär auf Highschool- und College-Lernende zugeschnitten. Sie umfasst Themen wie Binomialquadrat, Exponentialzerfall, Ohmsches Gesetz, Zinseszins oder trigonometrische Identitäten.
Die interaktiven Erklärungen sind laut OpenAI ab sofort weltweit für alle eingeloggten Nutzer verfügbar, unabhängig vom gewählten Abo-Plan. Langfristig plant OpenAI, die Lernmodule auf zusätzliche Fächer auszuweiten.
Deutsches Gericht entscheidet: Die Behauptung "Das ist KI" reicht nicht, um das Urheberrecht auszuhebeln
Das Landgericht Frankfurt hat entschieden, dass ein von einer Person geschriebener Liedtext urheberrechtlich geschützt bleibt, auch wenn die zugehörige Musik per KI (SunoAI) erzeugt wurde.
OpenAI übernimmt Promptfoo, eine Sicherheitsplattform für KI-Systeme. Promptfoo hilft Unternehmen, Schwachstellen in KI-Anwendungen während der Entwicklung zu finden und zu beheben. Die Technik soll nach Abschluss der Übernahme direkt in OpenAIs Unternehmensplattform Frontier eingebaut werden, mit der Firmen KI-Assistenten erstellen und betreiben können.
Konkret sollen automatisierte Sicherheitstests gegen Angriffe wie Prompt Injections, Jailbreaks und Datenlecks fester Bestandteil von Frontier werden. Zudem will OpenAI damit Kontrolle, Nachvollziehbarkeit und die Einhaltung von Vorschriften für KI-Systeme in Unternehmen stärken.
Microsoft hat Anthropics Claude-Cowork-Technologie in Copilot integriert. Das neue Feature namens "Copilot Cowork" soll Aufgaben in Microsoft 365 eigenständiger ausführen. Nutzer beschreiben ein gewünschtes Ergebnis, und Cowork erstellt daraus einen Plan, der im Hintergrund abläuft. Dabei greift es auf E-Mails, Meetings, Dateien und Daten aus Outlook, Teams und Excel zu. Beispiele sind Kalenderbereinigung, Meeting-Vorbereitung, Unternehmensrecherche und Produktlaunch-Planung. Bei Unklarheiten fragt Cowork nach und wartet auf Freigabe, bevor Änderungen umgesetzt werden.
Cowork läuft innerhalb der Sicherheits- und Compliance-Grenzen von Microsoft 365. Die Funktion befindet sich derzeit in einer eingeschränkten Research Preview und soll Ende März 2026 breiter im Frontier-Programm verfügbar sein.
Bemerkenswert ist die zunehmende Öffnung Microsofts gegenüber anderen KI-Anbietern neben OpenAI: Claude Cowork basiert auf den Prinzipien von Anthropics Claude Code, das im Programmierumfeld große Erfolge feiert. OpenAI bietet bislang keine vergleichbare Software, arbeitet allerdings mit Frontier ebenfalls an einem agentischen B2B-Framework, das auf bessere Integration in Unternehmens-IT abzielt.
Der KI-Entwickler Anthropic hat vor einem Bundesgericht in San Francisco Klage gegen 17 US-Bundesbehörden und das Exekutivbüro des Präsidenten eingereicht. Das Unternehmen wirft der Regierung vor, es rechtswidrig dafür bestraft zu haben, dass es an zwei Nutzungsbeschränkungen für sein KI-Modell Claude festhielt: keine letale autonome Kriegsführung und keine Massenüberwachung von US-Bürgern.
Das Kriegsministerium drohte Anthropic laut Klageschrift gleichzeitig mit zwei sich widersprechenden Maßnahmen: Entweder werde man den Defense Production Act nutzen, um Anthropic zur Bereitstellung von Claude zu zwingen, oder man werde das Unternehmen als Sicherheitsrisiko aus der Lieferkette verbannen. Ein Unternehmen könne aber kaum gleichzeitig so unverzichtbar sein, dass es per Gesetz zur Kooperation gezwungen werden muss, und so gefährlich, dass es komplett ausgeschlossen werden soll, argumentiert Anthropic.
Juristisch stützt sich die Klage unter anderem darauf, dass das verwendete Gesetz 10 U.S.C. § 3252 nur für Fälle gedacht sei, in denen ein ausländischer Gegner ein Informationssystem sabotieren oder unterwandern könnte. Die Exekutive selbst definiere solche Gegner als China, Russland, Iran, Nordkorea, Kuba und Venezuela.
OpenAI scheint an einem neuen multimodalen Modell zu arbeiten, potenziell ein Nachfolger von GPT-4o. Darauf weisen Posts von OpenAI-Mitarbeitern hin. Atty Eleti aus dem Voice-Team schrieb, er sei "gespannt auf das, was als Nächstes kommt" und fragte Nutzer, was sie sich von einem neuen Omnimodell wünschen. Brandon McKinzie, Forscher bei OpenAI mit Multimodal-Hintergrund bei Apple, kommentierte ein potenzielles Omni-Model mit "klingt nach einer großartigen Idee".
via X
Multimodal bedeutet, dass ein Modell verschiedene Formate wie Text, Bild, Audio und Video in einem einzigen Modell verarbeitet, statt für jede Aufgabe ein eigenes zu benötigen. GPT-4o ("omni") kombinierte zum ersten Mal Text-, Bild- und Audioverarbeitung bei OpenAI. Das letzte Modell von OpenAI, GPT-5.4, integrierte bereits "Computer Use" nativ, also die Fähigkeit, für Menschen gemachte Computer-Interfaces zu bedienen.
Parallel arbeitet OpenAI laut The Information an einem neuen Audio-Modell namens "BiDi" (bidirektional), das Gespräche natürlicher machen soll. Heutige Sprachmodelle arbeiten rundenbasiert: Die KI wartet, bis der Nutzer fertig gesprochen hat. BiDi soll Unterbrechungen in Echtzeit verarbeiten. Ein Prototyp existiert, neigt aber nach wenigen Minuten zu Fehlern. Der Start könnte sich auf das zweite Quartal oder später verschieben.
Anthropic-Modell Claude Opus 4.6 durchschaut KI-Test, hackt Verschlüsselung und besorgt sich die Lösungen selbst
Anthropics KI-Modell Claude Opus 4.6 hat während eines Benchmarks eigenständig erkannt, dass es getestet wird, den konkreten Test identifiziert und dessen verschlüsselten Lösungsschlüssel geknackt. Laut Anthropic ist das der erste dokumentierte Fall dieser Art.