OpenAI schaltet Sora im April und September ab. Das KI-Videotool wird in zwei Stufen eingestellt: Die Web- und App-Version endet am 26. April 2026, die Sora-API am 24. September 2026. OpenAI empfiehlt Nutzern, ihre Inhalte vor der Abschaltung herunterzuladen. Videos und Bilder lassen sich direkt aus der Sora-Bibliothek exportieren.
Ob es danach noch ein letztes Zeitfenster für den Datenexport geben wird, ist laut OpenAI noch nicht entschieden. Falls ja, werden Nutzer per E-Mail informiert. Nach Ablauf aller Fristen werden sämtliche Nutzerdaten dauerhaft gelöscht. Die Einstellung betrifft auch die Plattform sora.chatgpt.com, die zur Bild- und Videogenerierung genutzt werden konnte. Details finden sich auf der OpenAI-Hilfeseite unter "What to know about the Sora discontinuation".
Google kopiert Anthropics Memory-Import-Funktion, um Erinnerungen aus ChatGPT in Gemini zu holen. Gemini-Nutzer können ab sofort ihre gespeicherten Erinnerungen, Vorlieben und den kompletten Chatverlauf aus anderen KI-Apps wie ChatGPT und Claude importieren.
Dazu kopiert man einen vorgeschlagenen Prompt in die bisherige KI-App, lässt dort eine Zusammenfassung erstellen und fügt diese in Gemini ein. Gemini speichert die Informationen dann im eigenen Kontext. Zusätzlich lassen sich Chatverläufe als ZIP-Datei (bis zu 5 GB) hochladen und frühere Gespräche in Gemini fortsetzen. Google benennt zudem die bisherige Funktion "Past Chats" in "Memory" um. Die Funktion wird schrittweise ausgerollt.
Googles neue Memory-Import-Funktion in Gemini: Nutzer kopieren einen Prompt in ihre bisherige KI-App und fügen die generierte Zusammenfassung in Gemini ein. | Bild: Google
Anthropic hatte die Funktion zuerst vorgestellt, nachdem OpenAI wegen eines Militär-Deals in die Kritik geraten war, den Anthropic aus ethischen Gründen abgelehnt hatte. Die daraufhin gestiegene Zahl an Wechslern wollte Anthropic mit einem zusätzlichen Anreiz bedienen. Interessant ist, dass die Datenextraktion sowohl bei Google als auch bei Anthropic rein auf einem Prompt basiert, der die bisherige KI-App dazu bringt, alle gespeicherten Informationen über den Nutzer auszugeben.
Das kanadische KI-Unternehmen Cohere hat mit "Transcribe" ein neues Open-Source-Modell zur automatischen Spracherkennung veröffentlicht. Das Modell belegt laut Cohere Platz 1 auf dem HuggingFace Open ASR Leaderboard mit einer durchschnittlichen Wortfehlerrate von nur 5,42 Prozent. Damit übertrifft es Konkurrenten wie OpenAIs Whisper Large v3, ElevenLabs Scribe v2 und Qwen3-ASR-1.7B. Neben hoher Genauigkeit bietet Transcribe laut Cohere auch den besten Durchsatz unter vergleichbar großen Modellen.
Cohere Transcribe im Vergleich mit sieben anderen Spracherkennungsmodellen: Je weiter oben links ein Modell liegt, desto besser ist es: also schneller (hoher Durchsatz) und genauer (niedrige Wortfehlerrate). | Bild: Cohere
Das 2-Milliarden-Parameter-Modell unterstützt 14 Sprachen, darunter Englisch, Deutsch, Französisch und Japanisch. Es steht unter der Apache-2.0-Lizenz auf Hugging Face zum Download bereit und ist auch über Coheres API sowie die Plattform Model Vault nutzbar. Cohere plant, Transcribe künftig in seine KI-Agenten-Plattform North zu integrieren.
Anthropic hat vor einem Bundesgericht in San Francisco eine einstweilige Verfügung gegen die Trump-Regierung erwirkt. Richterin Rita Lin untersagte damit vorläufig die Umsetzung von Präsident Trumps Anweisung, Bundesbehörden die Nutzung von Anthropics KI-Modellen zu verbieten, sowie die Einstufung des Unternehmens als Sicherheitsrisiko durch das Pentagon.
Anthropic dafür zu bestrafen, dass es die Vertragsposition der Regierung in die öffentliche Kritik gerückt hat, ist ein klassischer Fall unzulässiger Vergeltung im Widerspruch zum First Amendment. […] Nichts in dem maßgeblichen Gesetz stützt die orwellsche Vorstellung, dass ein amerikanisches Unternehmen allein deshalb als potenzieller Gegner und Saboteur der USA gebrandmarkt werden darf, weil es seine Meinungsverschiedenheit mit der Regierung zum Ausdruck bringt.
Metas eigenes Aufsichtsgremium warnt: Community Notes sind KI-Desinformation nicht gewachsen
Das Oversight Board von Meta hat die geplante weltweite Ausweitung von Community Notes untersucht. Das Ergebnis: Das System ist zu langsam, zu dünn besetzt und anfällig für Manipulation, besonders angesichts der wachsenden Flut KI-generierter Desinformation. In bestimmten Ländern sollte Meta das Programm gar nicht erst einführen.