Mixtral: Französisches Start-up Mistral veröffentlicht GPT-4-inspiriertes Modell
Das französische Start-up Mistral AI hat sein neues Sprachmodell Mixtral 8x7B über einen Torrent-Link veröffentlicht. Mixtral ist ein Mixture-of-Experts-Modell und folgt damit einer Architektur, die Gerüchten zufolge auch OpenAI für GPT-4 verwendet – allerdings deutlich höher skaliert.
Bisher gibt es noch keine Benchmarks, Blogeinträge oder Artikel über das Modell, aber Mistral-7B – die erste Version von Mistral AI – hat allgemein sehr gut abgeschnitten und wurde schnell von der Open-Source-Community angenommen. Für das Training verwendete Mistral wahrscheinlich die MoE-Bibliothek MegaBlocks. Das in Paris ansässige Unternehmen wurde kürzlich mit fast 2 Milliarden US-Dollar bewertet.
KI-News ohne Hype – von Menschen kuratiert
Mit dem THE‑DECODER‑Abo liest du werbefrei und wirst Teil unserer Community: Diskutiere im Kommentarsystem, erhalte unseren wöchentlichen KI‑Newsletter, 6× im Jahr den „KI Radar“‑Frontier‑Newsletter mit den neuesten Entwicklungen aus der Spitze der KI‑Forschung, bis zu 25 % Rabatt auf KI Pro‑Events und Zugriff auf das komplette Archiv der letzten zehn Jahre.
Jetzt abonnierenKI-News ohne Hype
Von Menschen kuratiert.
- Mehr als 20 Prozent Launch-Rabatt.
- Lesen ohne Ablenkung – keine Google-Werbebanner.
- Zugang zum Kommentarsystem und Austausch mit der Community.
- Wöchentlicher KI-Newsletter.
- 6× jährlich: „KI Radar“ – Deep-Dives zu den wichtigsten KI-Themen.
- Bis zu 25 % Rabatt auf KI Pro Online-Events.
- Zugang zum kompletten Archiv der letzten zehn Jahre.
- Die neuesten KI‑Infos von The Decoder – klar und auf den Punkt.