Inhalt
summary Zusammenfassung

Das chinesische Start-up MiniMax hat die Open-Source-Modellfamilie MiniMax-01 veröffentlicht. Das Sprachmodell MiniMax-Text-01 verarbeitet laut Hersteller Kontexte von bis zu 4 Millionen Token - doppelt so viel wie der bisherige Spitzenreiter.

Anzeige

Zur neu eingeführten Serie gehören das textbasierte Modell MiniMax-Text-01 und das multimodale Modell MiniMax-VL-01, das auch visuelle Informationen verarbeiten kann. Die enorme Kontextlänge soll es ermöglichen, KI-Agenten mit einer Art "Langzeitgedächtnis" auszustatten, die Informationen aus vielen Quellen aufnehmen, miteinander verknüpfen und für späteren Abruf speichern können.

"Lightning Attention" steigert Effizienz

Um derart lange Kontexte effizient verarbeiten zu können, setzt MiniMax auf eine hybride Architektur. Diese kombiniert den in 2023 vorgestellten und 2024 weiterentwickelten "Lightning Attention"-Mechanismus mit klassischen Transformer-Blöcken in einem Verhältnis von 7:1. Diese Kombination reduziere den Rechenaufwand bei sehr langen Eingaben deutlich, während die Vorteile der Transformer-Architektur erhalten blieben, so das Team.

Ein weiterer Schlüssel zur effizienten Verarbeitung ist die bekannte "Mixture of Experts"-(MoE)-Struktur. Dabei handelt es sich um eine Schicht mit mehreren spezialisierten Teilmodellen, die für unterschiedliche Aufgaben optimiert sind.

Anzeige
Anzeige

Je nach Eingabe werden die am besten geeigneten Experten ausgewählt und kombiniert. MiniMax-Text-01 verfügt über 32 solcher Experten mit jeweils 45,9 Milliarden Parametern. Demnach verfügt das Modell über insgesamt knapp 456 Milliarden Parameter.

Needle im 4-Millionen-Token-Haystack gefunden

Um die Leistungsfähigkeit seiner Modelle zu untermauern, hat MiniMax eine Reihe von Benchmarks veröffentlicht. Diese zeigen: MiniMax-01 kann in gängigen Tests mit kommerziellen Spitzenmodellen wie GPT-4o und Claude 3.5 Sonnet mithalten.

Säulendiagramm: Leistungsvergleich von 7 KI-Sprachmodellen in 7 Benchmark-Tests, Genauigkeit in Prozent auf Y-Achse dargestellt.
Sieben führende Sprachmodelle zeigen unterschiedliche Leistungen in verschiedenen Benchmark-Tests. MiniMax-Text-01 erzielt durchgehend Spitzenwerte, unter anderem bei MMLU (88.5%). | Bild: MiniMax

Besonders gut schneidet es bei Aufgaben mit sehr langen Kontexten ab: Beim "Needle-In-A-Haystack"-Test mit 4 Millionen Token, bei dem das Sprachmodell bestimmte Informationen aus einer riesigen Datenmenge extrahieren muss, erreichte MiniMax-Text-01 laut Hersteller eine Genauigkeit von 100 Prozent.

Ein ebenfalls optimales Ergebnis erzielte allerdings schon Googles Gemini 1.5 Pro, das vor rund einem Jahr mit einem 2 Millionen Token großen Kontextfenster eingeführt wurde. Genauere Untersuchungen brachten hervor, dass der Benchmark nicht sonderlich viel Aussagekraft hat. Gleichzeitig haben Untersuchungen gezeigt, dass überdimensionale Kontextfenster nicht zwangsweise Vorteile gegenüber kleineren Kontexten in Kombination mit einer RAG-Umgebung bieten.

Heatmap: Durchgehend grüne Visualisierung eines Retrievaltests mit 4M Datenpunkten, zeigt 100% Erfolgsrate über alle Teststufen.
Der Needle-In-A-Haystack-Retrievaltest mit 4 Millionen Datenpunkten zeigt durchgehend optimale Leistung. | Bild: MiniMax

Modelle als Open Source verfügbar

Die MiniMax-01-Modelle stehen auf GitHub und Hugging Face zum Download bereit. Interessierte können sie im hauseigenen Chatbot Hailuo AI ausprobieren oder über eine vergleichsweise kostengünstige API in eigene Anwendungen integrieren.

Empfehlung

MiniMax hat zuletzt im Herbst 2024 mit seinem Videogenerator Video-01 für Aufsehen gesorgt. Das Ende 2021 gegründete KI-Start-up mit Sitz in Shanghai wird unter anderem von dem E-Commerce-Riesen Alibaba finanziert, das mit Qwen eine eigene Modellfamilie entwickelt.

Als Konkurrenz betrachtet MiniMax außerdem das Unternehmen DeepSeek, das mit dem kürzlich veröffentlichten Open-Source-Sprachmodell DeepSeek-V3 in eine ähnliche Richtung geht. Jedoch dürfte MiniMax-01 wie DeepSeeks Modell unter Zensur der chinesischen Regierung leiden.

Anzeige
Anzeige
Community beitreten
Kommt in die DECODER-Community bei Discord,Reddit, Twitter und Co. - wir freuen uns auf euch!
Unterstütze unsere unabhängige, frei zugängliche Berichterstattung. Jeder Betrag hilft und sichert unsere Zukunft. Jetzt unterstützen:
Banküberweisung
Zusammenfassung
  • MiniMax, ein chinesisches Startup, hat die Open-Source-Modellfamilie MiniMax-01 veröffentlicht, die das textbasierte Modell MiniMax-Text-01 und das multimodale Modell MiniMax-VL-01 umfasst. MiniMax-Text-01 kann laut Hersteller Kontexte von bis zu 4 Millionen Token verarbeiten, doppelt so viel wie der bisherige Spitzenreiter.
  • Die Modelle nutzen eine hybride Architektur mit "Lightning Attention" und klassischen Transformer-Blöcken sowie eine "Mixture of Experts"-Struktur zur effizienten Verarbeitung langer Kontexte. MiniMax-Text-01 verfügt über 32 Experten mit jeweils 45,9 Milliarden Parametern, insgesamt 456 Milliarden Parameter.
  • In Benchmarks kann MiniMax-01 mit kommerziellen Spitzenmodellen mithalten und erzielt besonders bei Aufgaben mit sehr langen Kontexten gute Ergebnisse. Die Modelle stehen auf GitHub und Hugging Face zum Download bereit und können über eine API in eigene Anwendungen integriert werden, dürften aber unter Zensur der chinesischen Regierung leiden.
Quellen
Jonathan ist Technikjournalist und beschäftigt sich stark mit Consumer Electronics. Er erklärt seinen Mitmenschen, wie KI bereits heute nutzbar ist und wie sie im Alltag unterstützen kann.
Community beitreten
Kommt in die DECODER-Community bei Discord,Reddit, Twitter und Co. - wir freuen uns auf euch!