Skip to content

Mixtral 8x22B: KI-Startup Mistral veröffentlicht neues offenes Sprachmodell

Das Pariser KI-Startup Mistral hat Mixtral-8x22B MoE, ein neues offenes Sprachmodell, über einen Torrent-Link veröffentlicht. Eine offizielle Ankündigung mit weiteren Details soll später folgen. Ersten Nutzern zufolge bietet das Modell 64.000 Token-Kontextfenster und benötigt 258 Gigabyte VRAM. Wie Mixtral-8x7B ist auch das neue Modell ein Mixture-of-Experts-Modell. Ausprobiert werden kann das neue Modell bei Together AI.

Source: Mistral

KI-News ohne Hype
Von Menschen kuratiert.

  • Mehr als 20 Prozent Launch-Rabatt.
  • Lesen ohne Ablenkung – keine Google-Werbebanner.
  • Zugang zum Kommentarsystem und Austausch mit der Community.
  • Wöchentlicher KI-Newsletter.
  • 6× jährlich: „KI Radar“ – Deep-Dives zu den wichtigsten KI-Themen.
  • Bis zu 25 % Rabatt auf KI Pro Online-Events.
  • Zugang zum kompletten Archiv der letzten zehn Jahre.
  • Die neuesten KI‑Infos von The Decoder – klar und auf den Punkt.
The Decoder abonnieren