Inhalt
summary Zusammenfassung

Das französische KI-Unternehmen Mistral hat mit Codestral ein neues Code-Modell auf den Markt gebracht, das sich durch hohe Codeleistung bei geringerem Rechenaufwand auszeichnen soll.

Laut Mistral beherrscht Codestral mehr als 80 Programmiersprachen, darunter die gängigsten wie Python, Java, C, C++, JavaScript und Bash, aber auch speziellere wie Swift und Fortran.

Es soll Entwickler in einer Vielzahl von Programmierumgebungen und Projekten unterstützen. Die Funktionen umfassen die Vervollständigung von Code, das Schreiben von Tests und die Vervollständigung von unvollständigem Code durch einen Fill-in-the-Middle-Mechanismus.

Als 22 Milliarden Parameter umfassendes Modell setzt Codestral im Vergleich zu früheren Modellen einen neuen Standard für das Verhältnis von Leistung und Latenz bei der Codegenerierung. Mit seinem größeren Kontextfenster von 32.000 Token übertrifft Codestral alle anderen Modelle in der RepoBench, einem Benchmark für längeren Code.

Anzeige
Anzeige
Bei Aufgaben mit längerem Code soll Codestral dank eines 32K-Kontextfensters besonders gut abschneiden. | Bild: Mistral

Mistral hat die Leistung von Codestral in verschiedenen Benchmarks für Python, SQL und andere Sprachen mit konkurrierenden Modellen mit höheren Hardwareanforderungen verglichen. Codestral schnitt durchweg besser ab, z.B. bei der Vervollständigung von Code-Repositories über große Distanzen oder bei der Vorhersage von Python-Ausgaben.

Im viel beachteten Code-Benchmark HumanEval übertrifft Codestral knapp das viel größere Llama 3 70B. | Bild: Mistral

Codestral ist als Open-Weight-Modell unter der neuen Mistral AI Non-Production License lizenziert, die die Nutzung zu Forschungs- und Testzwecken erlaubt. Es kann von HuggingFace heruntergeladen werden.

Mistral bietet zudem zwei API-Endpunkte für Codestral: codestral.mistral.ai für die Integration in IDEs, wo Entwickler ihre eigenen API-Schlüssel mitbringen, und api.mistral.ai für Forschung, Batch-Abfragen oder Anwendungsentwicklung, wo die Ergebnisse direkt den Nutzern präsentiert werden. Ersteres ist acht Wochen lang kostenlos nutzbar, letzteres wird pro Token abgerechnet.

Erste Rückmeldungen von Entwicklern und Forschern bescheinigen Codestral eine gute Performance. Trotz seiner relativ kompakten Größe liefere es Ergebnisse, die mit größeren Modellen vergleichbar sind.

Anzeige
Community beitreten
Kommt in die DECODER-Community bei Discord,Reddit, Twitter und Co. - wir freuen uns auf euch!
Anzeige
Community beitreten
Kommt in die DECODER-Community bei Discord,Reddit, Twitter und Co. - wir freuen uns auf euch!
Unterstütze unsere unabhängige, frei zugängliche Berichterstattung. Jeder Betrag hilft und sichert unsere Zukunft. Jetzt unterstützen:
Banküberweisung
Zusammenfassung
  • Mistral hat mit Codestral ein neues Code-Modell für Entwickler auf den Markt gebracht, das mehr als 80 Programmiersprachen beherrscht und durch hohe Code-Performance bei geringerem Rechenaufwand überzeugen soll.
  • Trotz seiner relativ kompakten Größe von 22 Milliarden Parametern übertrifft Codestral in Benchmarks für Python, SQL und andere Sprachen konkurrierende Modelle mit höheren Hardwareanforderungen, etwa bei der Vervollständigung von Code-Repositories über große Distanzen.
  • Codestral ist als Open-Weight-Modell lizenziert und kann für Forschung und Tests genutzt werden. Mistral bietet zwei API-Endpunkte: einen für die Integration in IDEs, der acht Wochen kostenlos ist, und einen für Forschung und Anwendungsentwicklung, der pro Token abgerechnet wird.
Quellen
Online-Journalist Matthias ist Gründer und Herausgeber von THE DECODER. Er ist davon überzeugt, dass Künstliche Intelligenz die Beziehung zwischen Mensch und Computer grundlegend verändern wird.
Community beitreten
Kommt in die DECODER-Community bei Discord,Reddit, Twitter und Co. - wir freuen uns auf euch!