Online-Journalist Matthias ist Gründer und Herausgeber von THE DECODER. Er ist davon überzeugt, dass Künstliche Intelligenz die Beziehung zwischen Mensch und Computer grundlegend verändern wird.
Google Deepmind veröffentlicht Gemini 3.1 Flash-Lite als schnellstes Modell der Reihe
Google Deepmind hat mit Gemini 3.1 Flash-Lite eine Vorschau auf das schnellste und günstigste Modell der Gemini-3-Reihe veröffentlicht. Es ist leistungsfähiger, aber auch viel teurer als das Vorgängermodell.
OpenAI hat GPT-5.3 Instant veröffentlicht, ein Update für das Standard-ChatGPT-Modell. Es soll Alltagsgespräche flüssiger und hilfreicher machen. Laut OpenAI liefert das Modell genauere Antworten, bessere Websuchergebnisse und vermeidet unnötige Warnhinweise und Ablehnungen. Die Halluzinationsrate sinke je nach Szenario um bis zu 26,8 Prozent bei Websuchen und 19,7 Prozent bei internem Wissen. Auch der Schreibstil sei natürlicher und weniger belehrend. Schwächen bestehen laut OpenAI weiterhin bei nicht-englischen Sprachen wie Japanisch und Koreanisch.
Die zugehörige System Card zeigt leichte Rückschritte bei der Sicherheit: Bei der Erkennung unerlaubter Inhalte schneidet GPT-5.3 Instant laut OpenAI im Schnitt besser ab als GPT-5.1 Instant, aber schlechter als der direkte Vorgänger GPT-5.2 Instant. Bei Gesundheitsthemen (HealthBench) schneidet das Modell minimal schlechter ab als der Vorgänger.
GPT-5.3 Instant steht ab sofort allen ChatGPT-Nutzern sowie Entwicklern über die API als "gpt-5.3-chat-latest" zur Verfügung. Das Vorgängermodell GPT-5.2 Instant bleibt für zahlende Nutzer noch drei Monate verfügbar und wird am 3. Juni 2026 eingestellt.
Anthropic hat sich Anfang 2026 an einem 100-Millionen-Dollar-Wettbewerb des Pentagon beteiligt. Ziel war die Entwicklung sprachgesteuerter, autonomer Drohnenschwarm-Technologien, berichtet Bloomberg.
Der Vorschlag sah vor, Anthropics KI-Tool Claude zu nutzen, um Befehle eines Kommandanten in digitale Anweisungen umzuwandeln und Drohnenflotten zu koordinieren, ohne dabei KI für autonome Zielerfassung oder Waffenentscheidungen einzusetzen. Menschen sollten das System jederzeit überwachen und stoppen können. Das ist konsistent mit Anthropics Argumentation im aktuellen Streit mit dem Pentagon. Auch hier betonte Anthropic die Relevanz menschlicher Aufsicht bei autonomen Waffen, da aktuelle KI-Modelle noch nicht verlässlich genug seien.
Anthropic wurde jedoch nicht ausgewählt. Stattdessen erhielten unter anderem SpaceX/xAI sowie zwei Rüstungsunternehmen mit OpenAI als Partner den Zuschlag.
Neuer Anthropic-Prompt lässt ChatGPT und Co. das gesammelte Wissen über Nutzer verraten
Anthropic nutzt die aktuelle Kritik an OpenAI und bietet ChatGPT-Wechslern eine neue Import-Funktion für Claude an. Per Prompt lässt sich der gesamte gespeicherte Kontext aus anderen Chatbots exportieren und in Claudes Memory übernehmen.
Artificial Analysis hat Version 2.0 seines Speech-to-Text-Benchmarks AA-WER veröffentlicht, der die Genauigkeit von Spracherkennungsmodellen misst. Im Gesamtranking führt Scribe v2 von ElevenLabs mit einer Wortfehlerrate von nur 2,3 Prozent. Auf den Plätzen zwei und drei folgen Googles Gemini 3 Pro (2,9 %) und Voxtral Small von Mistral (3,0 %). Auch Gemini 3 Flash von Google (3,1 %) und Scribe v1 von ElevenLabs (3,2 %) schneiden gut ab. Im Mittelfeld landen unter anderem OpenAIs GPT-4o Transcribe (4,0 %) und Whisper Large v3 (4,2 %). Am unteren Ende liegen Modelle wie Qwen3 ASR Flash von Alibaba (5,9 %), Amazons Nova 2 Omni (6,0 %) und Rev AI (6,1 %).
ElevenLabs Scribe v2 führt das Gesamtranking des AA-WER v2.0 Benchmarks mit der niedrigsten Wortfehlerrate an, gefolgt von Google Gemini 3 Pro und Mistral Voxtral Small. | Bild: Artificial Analysis
Im separaten Test mit Sprache, die speziell an Sprachassistenten gerichtet ist, bestätigt sich das Bild: Scribe v2 (1,6 %) und Gemini 3 Pro (1,7 %) liegen klar vorn. Universal-3 Pro von AssemblyAI folgt mit 2,3 Prozent auf Platz drei.
Auch im AA-AgentTalk-Test für Sprache an Sprachassistenten dominieren Scribe v2 von ElevenLabs und Gemini 3 Pro von Google mit den geringsten Fehlerquoten. | Bild: Artificial Analysis
Auch die neue Generation großer Sprachmodelle (LLMs) ab GPT-5 hat nach wie vor Probleme, wenn Aufgaben über mehrere Gesprächsrunden verteilt werden. Forscher Philippe Laban und sein Team testeten aktuelle Modelle in sechs Aufgaben: Code, Datenbanken, Aktionen, Daten-zu-Text, Mathematik und Zusammenfassungen. Ergebnis: Die Leistung sinkt deutlich, wenn Informationen über mehrere Nachrichten verteilt (sharded) statt in einer einzigen Anfrage (concat) gegeben werden.
Neuere Modelle schneiden zwar etwas besser ab – sie verlieren im Schnitt 33 statt zuvor 39 Prozent ihrer Leistung –, doch das Problem bleibt bestehen. Verbesserungen zeigten sich primär bei Python-Programmieraufgaben, wo einige Modelle nur noch 10 bis 20 Prozent Leistung einbüßten. Die Tests nutzten einfache, unkomplizierte Nutzersimulationen. Laban vermutet, dass der Verlust noch größer ausfallen könnte, wenn Nutzer etwa mitten im Gespräch ihre Meinung ändern.
OpenAI beweist Doppelmoral: Sam Altmans früherer Mitstreiter ist nun ein Dystopist
Angst erzeugt Aufmerksamkeit, und OpenAI weiß diesen Effekt regelmäßig zu nutzen. Doch vor Gericht will das Unternehmen einen KI-Experten als Untergangspropheten diskreditieren, dessen KI-Warnungen der eigene CEO Sam Altman jahrelang selbst verbreitet hat, als sie noch der eigenen Sache dienten.
OpenAI hat der kanadischen Regierung in einem Schreiben an KI-Minister Evan Solomon zugesagt, seine Sicherheitsprotokolle zu verschärfen. Anlass ist eine tödliche Schießerei an einer Schule in Tumbler Ridge, British Columbia, bei der acht Menschen starben. Der Verdächtige, Jesse Van Rootselaar, hatte zuvor mit ChatGPT interagiert. OpenAI-Angestellte stuften die Interaktionen als mögliche Warnung vor realer Gewalt ein. Das Unternehmen sperrte das Konto, informierte aber nicht die Polizei.
Laut Wall Street Journal will OpenAI nun flexiblere Kriterien für die Weitergabe von Kontodaten an Behörden einführen, direkte Kontakte zur kanadischen Polizei aufbauen und seine Systeme zur Umgehungserkennung verbessern. OpenAI-Vizepräsidentin Ann O'Leary sagte, man hätte das Konto nach den neuen Regeln gemeldet. Kanadas Justizminister Sean Fraser drohte mit neuen KI-Regulierungen, sollte OpenAI nicht schnell handeln.