Online-Journalist Matthias ist Gründer und Herausgeber von THE DECODER. Er ist davon überzeugt, dass Künstliche Intelligenz die Beziehung zwischen Mensch und Computer grundlegend verändern wird.
OpenAI hat sein neuestes Coding-Modell GPT-5.3-Codex veröffentlicht. Es vereint laut OpenAI die Coding-Fähigkeiten von GPT-5.2-Codex mit den Denk- und Wissensfähigkeiten von GPT-5.2 und ist dabei 25 Prozent schneller als sein Vorgänger. Bei vier Leistungstests für Programmierung und praktische Anwendungen erreicht GPT-5.3-Codex laut OpenAI neue Bestwerte in der Branche. Im agentischen Coding-Benchmark Terminal-Bench 2.0 übertrifft Codex 5.3 das gerade erst veröffentlichte Opus 4.6 um zwölf Prozentpunkte; für aktuelle KI-Modellverhältnisse eine riesige Lücke. Dabei verbraucht das Modell weniger Token als die eigenen Vorgänger.
OpenAI
Das Modell half zudem angeblich bei seiner eigenen Entstehung mit: Das Codex-Team nutzte frühe Versionen, um Fehler im Training zu finden, die Bereitstellung zu steuern und Testergebnisse auszuwerten. Das Team sei überrascht gewesen, wie sehr Codex seine eigene Entwicklung beschleunigt habe, so OpenAI.
GPT-5.3-Codex wird für zahlende ChatGPT-Nutzer in allen Codex-Umgebungen verfügbar sein: in der Codex-App, in der CLI, in der IDE-Erweiterung und im Web. Ein API-Zugang soll folgen. Das Modell wird als erstes OpenAI-Modell mit dem Cybersecurity-Risiko "High" eingestuft: als Vorsichtsmaßnahme, wie OpenAI schreibt, obwohl es keinen sicheren Beweis gebe.
OpenAI startet Frontier-Plattform für KI-Agenten in Unternehmen
OpenAI stellt mit Frontier eine neue Plattform vor, die KI-Agenten in Unternehmen aus ihrer Isolation befreien soll. Die Agenten erhalten eigene Identitäten, gemeinsamen Kontext und sollen aus Erfahrung lernen. Die Software ist zunächst für ausgewählte Enterprise-Kunden verfügbar.
Laut Altman sind diese Spots zwar lustig, aber unehrlich. OpenAI habe sich explizit dagegen ausgesprochen, Werbung so einzusetzen, wie Anthropic es darstellt: als subtile Beeinflussung, eingebunden in persönliche, vertrauliche Chat-Gespräche. Er wirft Anthropic zudem Elitismus vor: OpenAI wolle KI für Milliarden Menschen zugänglich machen, die sich keine Abos leisten können. Anthropic hingegen bediene mit einem teuren Produkt primär wohlhabende Kunden.
Zur Wahrheit gehört auch: Die Dystopie, die Anthropic in den Werbespots skizziert, hat Altman früher selbst prophezeit, als sie in sein Anti-Google-Narrativ passte. Und gerade bei börsennotierten Unternehmen – und einen Börsengang hat OpenAI Ende des Jahres vor – hat Werbung die Eigenschaft, Überhand zu nehmen und an Einfluss zu gewinnen, wenn der Wachstumsdruck steigt.
Das KI-Chip-Startup Cerebras Systems hat eine Finanzierungsrunde über eine Milliarde US-Dollar abgeschlossen. Die Bewertung des Unternehmens liegt damit bei rund 23 Milliarden Dollar, wie es in einer Pressemitteilung bekannt gibt. Die Runde wurde von Tiger Global angeführt, mit Beteiligung von Benchmark, Fidelity, AMD, Coatue und weiteren Investoren.
Cerebras mit Sitz in Sunnyvale, Kalifornien, entwickelt spezielle KI-Chips mit Fokus auf schnelle Inferenz, also kurze Antwortzeiten der KI-Modelle. Das Besondere an Cerebras ist der Ansatz, einen kompletten Wafer als einen einzigen Chip zu nutzen – die sogenannte "Wafer Scale Engine" (WSE). Das aktuelle Hauptprodukt ist der WSE-3.
Bei der Finanzierungsrunde geholfen haben dürfte der kürzlich bekannt gegebene Deal mit OpenAI über mehr als zehn Milliarden US-Dollar. Das KI-Labor will über einen Zeitraum von drei Jahren 750 Megawatt Rechenkapazität für ChatGPT erwerben. Sehr wahrscheinlich will OpenAI die Antwortzeiten seiner Reasoning- und Code-Modelle beschleunigen, die zwar die wohl besten Ergebnisse am Markt liefern, aber dafür recht lange brauchen. Sam Altman versprach kürzlich "dramatisch schnellere" Antwortzeiten im Kontext des Code-Modells Codex.
Die chinesische Firma Kling hat das Videomodell 3.0 veröffentlicht. Das neue Modell wird als "All-in-One Creative Engine" für multimodale Kreation beschrieben. Zu den Hauptfunktionen gehören verbesserte Konsistenz bei Charakteren und Elementen, Videoproduktion mit 15-Sekunden-Clips und verbesserter Kontrolle sowie anpassbare Multi-Shot-Aufnahmen. Die Audiofunktionen wurden erweitert und unterstützen nun mehrere Charakterreferenzen sowie zusätzliche Sprachen und Akzente. Bei der Bildgenerierung bietet Kling 3.0 eine 4K-Ausgabe, einen neuen Serienbildmodus und "verbesserte filmische visuelle Qualität".
Der YouTube-Kanal "Theoretically Media" hatte vorab Zugriff und hat ein ausführliches Ersteindruck-Video veröffentlicht. Demnach soll das Modell innerhalb einer Woche für weitere Abostufen verfügbar sein.
Die Claude-Firma Anthropic positioniert sich gegen Werbung, spricht sich aber für kommerzielle Chat-Transaktionen aus. In einem Blogbeitrag erklärt Anthropic, dass Claude werbefrei bleiben soll: keine gesponserten Links, keine von Werbetreibenden beeinflussten Antworten. Anders als bei Suchmaschinen teilten Nutzer in KI-Chats oft persönliche Informationen. Werbung könnte dazu führen, dass Gespräche auf Transaktionen gelenkt werden, statt hilfreich zu sein – Bedenken, die auch OpenAI-CEO Sam Altman hatte, bevor sich seine Firma doch für Werbung entschied.
Expanding access to Claude is central to our public benefit mission, and we want to do it without selling our users’ attention or data to advertisers.
Anthropic
Anthropic will sich stattdessen durch Unternehmensverträge und Abonnements finanzieren. Allerdings plant das Unternehmen E-Commerce-Transaktionen, etwa Buchungen oder Käufe, die Claude im Auftrag des Nutzers durchführt. Anthropic könnte hier planen, so wie OpenAI an den Transaktionen zu verdienen. Die Firma beteuert jedoch, dass Claudes Hauptmotivation bleiben soll, eine hilfreiche Antwort zu geben.
Alibaba hat mitQwen3-Coder-Nextein neues Open-Weight-KI-Modell für Programmier-Agenten und lokale Entwicklung vorgestellt. Das Modell wurde mit 800 000 überprüfbaren Aufgaben in ausführbaren Umgebungen trainiert. Trotz seiner kompakten Größe von 80 Milliarden Parametern insgesamt und nur 3 Milliarden aktiven Parametern erreicht es starke Ergebnisse auf dem SWE-Bench Pro, einem Benchmark für Coding-Agenten.
Laut Alibaba übertrifft oder erreicht das Modell trotz seines kleinen aktiven Speicherbedarfs zudem mehrere deutlich größere Open-Source-Modelle bei verschiedenen Agenten-Tests. Auf dem SWE-Bench Verified erzielt es mehr als 70 Prozent mit dem SWE-Agent-Gerüst.
Das Modell unterstützt eine Kontextlänge von 256 000 Token und lässt sich in verschiedene Entwicklungsumgebungen wie Claude Code, Qwen Code, Qoder, Kilo, Trae und Cline integrieren. Für den lokalen Einsatz unterstützen Anwendungen wie Ollama, LMStudio, MLX-LM, llama.cpp und KTransformers das Modell.