Skip to content
Read full article about: Devstral 2: Mistral AI veröffentlicht neue offene KI-Modelle für Programmierung

Mit Devstral 2 und Devstral Small 2 veröffentlicht Mistral AI eine neue Familie von Open-Source-Modellen für die Programmierung. Devstral 2 mit 123 Milliarden Parametern erreicht im SWE-Bench Verified Benchmark 72,2 Prozent und übertrifft damit viele andere offene Modelle. Laut Mistral AI ist es bis zu siebenmal kosteneffizienter als Claude Sonnet. Es benötigt vier H100-Class-GPUs. Das kleinere Modell Devstral Small 2 (24 Milliarden Parameter) lässt sich dagegen auf handelsüblicher Hardware lokal betreiben.

Während Devstral Small 2 unter der freien Apache-2.0-Lizenz steht, erscheint das große Devstral 2 unter einer "Modified MIT License" mit Umsatzgrenze: Unternehmen mit mehr als 20 Millionen US-Dollar Monatsumsatz müssen eine kommerzielle Lizenz beantragen oder das Modell via API nutzen. Diese Einschränkung gilt auch für alle Ableitungen oder Modifikationen (Fine-Tunes) des Modells.

Ergänzend führt das Unternehmen Mistral Vibe ein, ein Open-Source-Tool für die Befehlszeile. Vibe ermöglicht es Entwicklern, Code-Änderungen über mehrere Dateien hinweg mittels natürlicher Sprache zu automatisieren und Fehler zu beheben. Devstral 2 ist zunächst kostenlos über die API verfügbar, später kostet es 0,40 US-Dollar pro Million Input-Token.

OpenAI, Anthropic und mehr: "Big AI" will gemeinsamen Standard für KI-Agenten schaffen

Die Linux Foundation gründet die Agentic AI Foundation. Anthropic, OpenAI und Block steuern drei Open-Source-Projekte bei, während sich nahezu alle großen Technologiekonzerne als Mitglieder anschließen.

EU-Kommission eröffnet Kartellverfahren gegen Google wegen KI-Datennutzung

Die Europäische Kommission prüft, ob Google seine Marktmacht missbraucht, um KI-Modelle mit Inhalten von Webseiten und YouTube zu trainieren. Im Fokus stehen fehlende Opt-out-Möglichkeiten und die Benachteiligung von Konkurrenten.

Nvidia darf H200-Chips unter strengen Auflagen an China verkaufen

Die US-Regierung unter Donald Trump plant, den Export von Nvidias H200-KI-Beschleunigern nach China unter Auflagen freizugeben. Im Gegenzug verlangen die USA eine Abgabe von 25 Prozent, während die leistungsfähigsten Modelle weiterhin gesperrt bleiben.

Read full article about: Rnj-1: Transformer-Pionier Vaswani stellt neues Coding-Modell vor

Das neue Open-Source-Modell Rnj-1 von Essential AI lässt im Test "SWE-bench Verified" deutlich größere Konkurrenz hinter sich. Dieser Benchmark gilt als besonders anspruchsvoll, da er die eigenständige Lösung echter Programmierprobleme aus der Praxis bewertet. Obwohl Rnj-1 mit acht Milliarden Parametern zu den kompakteren Modellen zählt, erreicht es hier einen Wert von 20,8 Punkten.

Ähnlich große Modelle wie Qwen 3 (ohne Reasoning, 8B) kommen im Vergleich von Essential AI nur auf 4,5 Punkte. Vorgestellt wurde das System von Ashish Vaswani, Mitgründer von Essential AI und Co-Autor des berühmten "Attention is all you need"-Paper, das die Transformer-Architektur einführte. Rnj-1 basiert ebenfalls auf einem Transformer, genauer auf der Gemma-3-Architektur. Der Fokus lag laut dem Unternehmen dabei primär auf einem besseren Pre-Training, statt auf anderen Methoden wie dem Reinforcement-Learning im Post-Training. Die Verbesserungen äußern sich auch in den vergleichsweise geringen Pre-Training-Rechenressourcen durch den verwendeten Muon-Optimizer.

Chinas KI-Training in Kenia: WhatsApp-Gruppen ersetzen den Arbeitsvertrag

Während US-Tech-Giganten für ihre Arbeitspraktiken in Kenia zunehmend unter Beobachtung stehen, bauen chinesische KI-Firmen im Stillen ein Netzwerk aus Billigarbeitskräften auf. Die Rekrutierung läuft informell über WhatsApp, ohne Verträge und mit enormem Leistungsdruck.