Anzeige
Skip to content

MiniMax M2.7: Chinesisches KI-Modell soll sich teilweise selbst weiterentwickelt haben

Image description
MiniMax

Das chinesische KI-Unternehmen MiniMax hat mit M2.7 ein Modell veröffentlicht, das aktiv an seiner eigenen Entwicklung beteiligt gewesen sein soll. In autonomen Optimierungsschleifen verbesserte es seinen eigenen Trainingsprozess und erzielte dabei teils konkurrenzfähige Benchmark-Ergebnisse.

Während der Entwicklung von M2.7 soll das Modell eigenständig seine Wissensspeicher aktualisiert, Dutzende komplexe Fähigkeiten in seiner Agent-Infrastruktur aufgebaut und das belohnungsbasierte Training verbessert haben. Aus den Ergebnissen leitete es wiederum Verbesserungen für seinen eigenen Lernprozess ab. MiniMax bezeichnet M2.7 deshalb als "erstes Modell, das tief an seiner eigenen Evolution beteiligt war" und formuliert die Vision, dass künftige KI-Selbstevolution "schrittweise in Richtung vollständiger Autonomie übergehen" werde.

Balkendiagramme mit Benchmark-Ergebnissen von MiniMax M2.7, M2.5, Gemini 3.1 Pro, Sonnet 4.6, Opus 4.6 und GPT-5.4 in acht Kategorien: SWE Bench Pro (M2.7: 56,2), Multi-SWE Bench (52,7), VIBE-Pro (55,6), MLE-Bench Lite (66,6), GDPval-AA (50), Toolathon (46,3), MM-ClawBench (62,7) und Artificial Analysis (50). Die Konkurrenzmodelle liegen je nach Benchmark zwischen knapp darunter und wenige Punkte darüber.
MiniMax M2.7 im Vergleich mit Sonnet 4.6, Opus 4.6, Gemini 3.1 Pro und GPT-5.4 über acht Benchmarks hinweg. M2.7 erreicht in den meisten Tests Werte nahe an den führenden proprietären Modellen. | Bild: MiniMax

MiniMax ist nicht das einzige Unternehmen, das diesen Ansatz verfolgt. OpenAI hat kürzlich sein Coding-Modell GPT-5.3 Codex mit ähnlichen Aussagen zur KI-gestützten Entwicklung vorgestellt. Laut OpenAI nutzte das Codex-Team frühe Versionen des Modells, um Fehler im Training zu finden, das Deployment zu steuern und Testergebnisse auszuwerten. Das Team sei überrascht gewesen, wie sehr Codex seinen eigenen Entwicklungsprozess beschleunigt habe, so OpenAI.

Über 100 autonome Optimierungsrunden

Um die Grenzen dieser Selbstoptimierung auszuloten, ließ MiniMax eine interne Version von M2.7 ein Forschungs-Agent-System aufbauen, das mit verschiedenen Projektgruppen im Unternehmen zusammenarbeitet. Im Alltag des hauseigenen RL-Teams übernimmt der Agent laut MiniMax Aufgaben wie Literaturrecherche, Experiment-Tracking, Debugging, Metrikanalyse und Code-Korrekturen. Menschliche Forscher greifen demnach nur noch bei kritischen Entscheidungen ein. Das Modell bewältige 30 bis 50 Prozent des gesamten Workflows.

Anzeige
DEC_D_Incontent-1

Schematische Darstellung des M2* Model Iteration Systems in zwei Teilen. Oben: Der Mensch konfiguriert und steuert einen Agent Harness, der aus hierarchischen Skills, persistentem Speicher, Guardrails und Evaluationsinfrastruktur besteht. Der Agent liest Dokumentation, überprüft Code, generiert Berichte und aktualisiert seinen eigenen Speicher. Unten: Ein fünfstufiger RL-Team-Workflow von Experimentplanung über Entwicklung, Analyse und Review bis zur Iterationsschleife. Grüne Phasen laufen autonom, orange Phasen erfordern Zusammenarbeit von Mensch und KI.
So entwickelt sich M2.7 selbst weiter: Forscher geben Ziele und Leitplanken vor, der KI-Agent übernimmt dann große Teile des Entwicklungsprozesses eigenständig. Unten zeigt ein Beispiel-Workflow, wie Experimentplanung, Code-Änderungen und Auswertung dabei ineinandergreifen. | Bild: MiniMax

In einem Experiment optimierte M2.7 vollständig autonom über mehr als 100 Runden die Programmierleistung eines Modells in einer internen Entwicklungsumgebung. In jeder Runde analysierte es Fehlverläufe, plante Änderungen, passte den Code an, testete die Ergebnisse und entschied anschließend, ob die Änderungen beibehalten oder verworfen werden. Laut MiniMax führte das zu einer Leistungsverbesserung von 30 Prozent auf internen Evaluationssätzen.

Bei 22 Machine-Learning-Wettbewerben des von OpenAI veröffentlichten MLE Bench Lite erreichte M2.7 über drei Durchläufe mit je 24 Stunden eine durchschnittliche Medaillenrate von 66,6 Prozent. Damit liegt das Modell nach Unternehmensangaben hinter Opus 4.6 (75,7 Prozent) und GPT-5.4 (71,2 Prozent), aber gleichauf mit Gemini 3.1.

Konkurrenzfähig bei Software Engineering und Büroarbeit

In Software-Engineering-Benchmarks zeigt M2.7 laut MiniMax Ergebnisse auf dem Niveau westlicher Spitzenmodelle. Auf SWE-Pro erreichte es 56,22 Prozent, vergleichbar mit GPT-5.3-Codex. Auf VIBE-Pro, einem Benchmark für vollständige Projektlieferung, erzielte es 55,6 Prozent. In Praxisszenarien soll M2.7 die Wiederherstellungszeit bei Produktionssystem-Ausfällen mehrfach auf unter drei Minuten reduziert haben.

Für professionelle Büroarbeit erreichte M2.7 im GDPval-AA-Benchmark einen ELO-Score von 1495, laut MiniMax der höchste Wert unter Open-Weight-Modellen. Das Modell soll mehrstufige Bearbeitungen in Word, Excel und PowerPoint mit hoher Wiedergabetreue bewältigen und bei über 40 komplexen Anweisungssets eine Regeltreue von 97 Prozent einhalten.

Anzeige
DEC_D_Incontent-2

Als Praxisbeispiel beschreibt MiniMax eine Finanzanalyse für TSMC, bei der M2.7 eigenständig Geschäftsberichte las, ein Umsatzprognosemodell baute und daraus eine Präsentation und einen Research-Bericht erstellte. Das Ergebnis könne laut Finanzpraktikern bereits als erster Entwurf dienen.

Open-Source-Demo für interaktive KI-Erlebnisse

Neben Produktivitätsszenarien hat MiniMax auch die Charakter-Konsistenz und emotionale Intelligenz des Modells verbessert. Als Demonstration veröffentlichte das Unternehmen OpenRoom, ein Open-Source-Projekt, das KI-Interaktion in eine grafische Web-Umgebung verlagert, in der Charaktere proaktiv mit ihrer Umgebung interagieren. M2.7 ist über MiniMax Agent und die API-Plattform verfügbar, Gewichte sind im Gegensatz zu vorherigen Modellversionen bislang nicht verfügbar.

Das theoretische Fundament für sich selbst verbessernde KI legte Jürgen Schmidhuber bereits 2003 mit dem Konzept der "Gödel Machine", die Änderungen an ihrem eigenen Code nur bei formal bewiesenem Nutzen übernimmt. Projekte wie Sakana AIs "Darwin-Gödel-Maschine" und die aus Schmidhubers KAUST-Umfeld stammende "Huxley-Gödel Machine" nähern sich diesem Ideal pragmatisch an, indem KI-Agenten ihren eigenen Code iterativ verändern und erfolgreiche Varianten evolutionär selektieren.

KI-News ohne Hype – von Menschen kuratiert

Mit dem THE‑DECODER‑Abo liest du werbefrei und wirst Teil unserer Community: Diskutiere im Kommentarsystem, erhalte unseren wöchentlichen KI‑Newsletter, 6× im Jahr den „KI Radar"‑Frontier‑Newsletter mit den neuesten Entwicklungen aus der Spitze der KI‑Forschung, bis zu 25 % Rabatt auf KI Pro‑Events und Zugriff auf das komplette Archiv der letzten zehn Jahre.

KI-News ohne Hype
Von Menschen kuratiert.

  • Mehr als 20 Prozent Launch-Rabatt.
  • Lesen ohne Ablenkung – keine Google-Werbebanner.
  • Zugang zum Kommentarsystem und Austausch mit der Community.
  • Wöchentlicher KI-Newsletter.
  • 6× jährlich: „KI Radar“ – Deep-Dives zu den wichtigsten KI-Themen.
  • Bis zu 25 % Rabatt auf KI Pro Online-Events.
  • Zugang zum kompletten Archiv der letzten zehn Jahre.
  • Die neuesten KI‑Infos von The Decoder – klar und auf den Punkt.
The Decoder abonnieren