Das KI-Forschungsinstitut Allen AI hat SERA veröffentlicht, eine Familie von Open-Source-Coding-Agenten, die sich günstig an private Codebasen anpassen lassen sollen. Das beste Modell, SERA-32B, löst bis zu 54,2 Prozent der Probleme im Coding-Benchmark "SWE-Bench-Test Verified" (64K context) und übertrifft damit vergleichbare Open-Source-Modelle.
32K context, Allen AI
SERA nutzt ein vereinfachtes Trainingsverfahren namens "Soft-verified Generation", das keine vollständig korrekten Code-Beispiele benötigt. Das Training benötigt laut Ai2 nur 40 GPU-Tage und kostet zwischen 400 Dollar, um frühere Open-Source-Ergebnisse zu erreichen, und 12.000 Dollar für Leistung auf dem Niveau führender Industriemodelle. Damit sei ein Training auf eigenen Code-Daten auch für kleine Teams möglich. Technische Details stehen im Blog.
Die Modelle sind mit Claude Code kompatibel und können laut Allen AI mit zwei Zeilen Code gestartet werden. Alle Modelle, Code und Anleitungen sind auf Hugging Face unter der Apache 2.0-Lizenz verfügbar.
Mistral AI hat Mistral Vibe 2.0 vorgestellt, ein Upgrade seines Terminal-basierten Programmier-Assistenten, der auf dem Devstral 2 Modell basiert. Das Tool ermöglicht Entwicklern, Code mit natürlicher Sprache zu steuern, mehrere Dateien gleichzeitig zu bearbeiten und den gesamten Code-Kontext zu nutzen.
Neu in Version 2.0 sind benutzerdefinierte Unteragenten für spezielle Aufgaben wie Tests oder Code-Reviews, Rückfragen bei unklaren Anweisungen statt automatischer Entscheidungen, und Slash-Befehle für vorgefertigte Arbeitsabläufe.
Mistral Vibe ist über Le Chat Pro (14,99 Dollar/Monat) und Team-Pläne (24,99 Dollar/Platz) verfügbar. Devstral 2 wechselt zu kostenpflichtigem API-Zugang – kostenlose Nutzung bleibt für Tests im Experiment-Plan möglich. Für Unternehmen bietet Mistral zusätzlich Feinabstimmung, verstärkendes Lernen und Code-Modernisierung an.
KI-Entwickler Andrej Karpathy revidiert Meinung zu KI-Agenten: Von "funktionieren nicht" zu 80 Prozent KI-Coding in nur drei Monaten
Noch im Oktober sagte Andrej Karpathy über KI-Agenten: „Sie funktionieren einfach nicht.“ Jetzt programmiert er nach eigenen Angaben zu 80 Prozent mit Agenten und spricht von einem Phasenwechsel in der Softwareentwicklung. Es ist eine eigentlich nüchterne Stimme, die in den Hype um agentisches Coding einsteigt, aber auch warnt.
Microsoft stellt seinen neuen KI-Inferenz-Chip Maia 200 vor. Der Chip ist speziell für die Inferenz entwickelt worden und soll 30 Prozent bessere Leistung pro Dollar bieten als die aktuelle Chip-Generation in Microsofts Rechenzentren. Er basiert auf TSMCs 3-Nanometer-Verfahren mit über 140 Milliarden Transistoren und verfügt über 216 GB Hochgeschwindigkeitsspeicher.
Laut Microsoft ist Maia 200 der leistungsstärkste hauseigene Chip aller großen Cloud-Anbieter. Er biete dreimal so viel FP4-Leistung wie Amazons Trainium 3 und übertreffe Googles TPU v7 bei FP8-Berechnungen. Eine unabhängige Bewertung steht noch aus.
Microsoft
Microsoft setzt den Chip laut eigenen Angaben für OpenAIs GPT-5.2-Modelle sowie für Microsoft 365 Copilot ein. Entwickler können sich für eine Vorschau des Maia SDK anmelden. Maia 200 ist zunächst im Rechenzentrum in Iowa verfügbar, Arizona folgt als Nächstes. Technische Details zum Chip stehen hier.
Apples Weg zur Google Partnerschaft war von internen Machtkämpfen geprägt
Interne Notfall-Meetings, ein Chef der „Bullshit“ rief und niemanden überzeugte, gescheiterte Milliarden-Verhandlungen: Bloomberg enthüllt die Hintergründe von Apples Wende zu Google Gemini.