Inhalt
summary Zusammenfassung

Eine neue Studie stellt die Grundannahmen der KI-Entwicklung infrage: Statt auf massive Datenmengen zu setzen, genügen angeblich 78 strategisch ausgewählte Beispiele, um überlegene autonome KI-Agenten zu entwickeln.

Anzeige

Das wollen Wissenschaftler:innen verschiedener chinesischer Forschungsinstitutionen mit ihrer Untersuchung LIMI ("Less Is More for Intelligent Agency") zeigen. Die Forschenden definieren "Agency" als die emergente Fähigkeit von KI-Systemen, als autonome Agenten zu funktionieren. Diese Systeme sollen Probleme aktiv entdecken, Hypothesen formulieren und Lösungen durch selbstgesteuerte Interaktion mit Umgebungen und Tools ausführen können.

Überlegenheit bei Agenten-Benchmark

Das LIMI-Modell erreicht laut der Studie mit nur 78 sorgfältig ausgewählten Trainingssamples eine Leistung von 73,5 Prozent auf dem AgencyBench-Benchmark.

Der AgencyBench-Benchmark umfasst komplexe Aufgaben, die realistische Arbeitsszenarien simulieren. Dazu gehören die Entwicklung von Software-Systemen wie C++-Chat-Anwendungen oder Java-To-do-Apps, die Programmierung webbasierter Spiele mit KI-Gegnern, der Aufbau von Microservice-Pipelines sowie Forschungsworkflows wie LLM-Leistungsvergleiche, Datenanalysen und komplexe Recherche-Aufgaben zu NBA-Spielern oder S&P 500-Unternehmen.

Anzeige
Anzeige

Die Überlegenheit gegenüber aktuellen Open-Weight-Spitzenmodellen ist erheblich: Deepseek-V3.1 kommt auf nur 11,9 Prozent, Kimi-K2-Instruct auf 24,1 Prozent, Qwen3-235B-A22B-Instruct auf 27,5 Prozent und GLM-4.5 auf 45,1 Prozent.

Dualplot: Balkendiagramm mit Agentenperformance (LIMI 73,5 % auf AgencyBench) und Effizienzdarstellung zeigt 53,7 % Gewinn bei 0,8 % Samples.
LIMI erzielt eine 53,7 Prozentige Verbesserung gegenüber Modellen, die mit 10.000 Samples trainiert wurden, obwohl es 128-mal weniger Daten verwendet. | Bild: Xiao et al.

Auffällig ist, dass LIMI bereits beim ersten Versuch 71,7 Prozent der Anforderungen korrekt umsetzt, verglichen mit dem besten Baseline-Modell GLM-4.5 mit nur 37,8 Prozent. Dies entspricht einer Verbesserung von 33,9 Prozentpunkten. Bei der allgemeinen Erfolgsrate zeigt LIMI mit 74,6 Prozent ebenfalls eine deutliche Überlegenheit gegenüber GLM-4.5 mit 47,4 Prozent.

Die Überlegenheit erstreckt sich auch auf etablierte Benchmarks für Coding-Aufgaben und wissenschaftliches Rechnen. Mit einer durchschnittlichen Leistung von 57,2 Prozent übertraf LIMI alle Baseline-Modelle deutlich.

Der Vergleich mit alternativen Trainingsansätzen verdeutlicht die Effizienz: GLM-4.5-Code, trainiert mit 10.000 Samples, erreichte nur 47,8 Prozent auf AgencyBench. GLM-4.5-Web mit 7.610 Samples kam auf 36,7 Prozent, und GLM-4.5-CC mit 260 Samples erreichte 29,2 Prozent.

Histogramm der Trajektlängen (13 k–152 k Tokens, Ø 42,4 k) plus Ringdiagramm zur Domänenabdeckung in Vibe-Coding und Research-Workflows.
Das Forschungsteam konzentrierte sich auf zwei Kernbereiche: "Vibe Coding" für kollaborative Softwareentwicklung und Forschungsworkflows für wissenschaftliche Prozesse. Diese Domänen sollen laut der Studie die Mehrheit der Wissensarbeitsszenarien abdecken. | Bild: Xiao et al.

Für die Datengenerierung entwickelten die Wissenschaftler:innen eine neuartige Methodik: Sie synthetisierten Nutzer:innenanfragen aus GitHub-Pull-Requests mit GPT-5 und sammelten vollständige Interaktionssequenzen durch Mensch-KI-Zusammenarbeit in einer Kommandozeilen-Umgebung.

Empfehlung
Flussdiagramm: Nutzeranfragen aus GitHub-PR-Synthese und realen Fällen durch Qualitätsprüfung zum Query-Pool, danach Trajektorien in CLI erfasst.
Die resultierenden Trajektorien erfassen komplette kollaborative Arbeitsabläufe vom initialen Aufgabenverständnis über iteratives Modell-Reasoning und Tool-Nutzung bis zur erfolgreichen Aufgabenerledigung. | Bild: Xiao et al.

Die längste Interaktionssequenz erreichte 152.000 Tokens und demonstriere die Tiefe und Komplexität kollaborativer Problemlösungsprozesse, die ausgeprägte autonome Verhaltensweisen charakterisieren.

Paradigmenwechsel für die KI-Entwicklung

Die Ergebnisse könnten weitreichende Implikationen für die Entwicklung autonomer KI-Systeme haben. Während traditionelle Ansätze zunehmend komplexe Trainingspipelines und erhebliche Ressourcenanforderungen mit sich bringen, zeigt LIMI einen alternativen Weg, der jedoch noch weiter erforscht und in der Praxis geprüft werden muss.

Die Studie demonstriert auch, dass der Ansatz über verschiedene Modellgrößen hinweg funktioniert. LIMI-Air mit 106 Milliarden Parametern verbesserte sich von 17,0 Prozent auf 34,3 Prozent, während LIMI mit 355 Milliarden Parametern von 45,1 Prozent auf 73,5 Prozent stieg.

Code, Modelle und Datensätze sind öffentlich verfügbar.

Anzeige
Anzeige
Community beitreten
Kommt in die DECODER-Community bei Discord,Reddit, Twitter und Co. - wir freuen uns auf euch!

Vor kurzem hatten bereits Nvidia-Forschende argumentiert, dass die meisten KI-Agenten unnötig auf überdimensionierte Large Language Models setzen und kleinere Modelle mit weniger als zehn Milliarden Parametern für agentische Anwendungen ausreichen würden. Die LIMI-Studie untermauert diese These nun mit empirischen Belegen für die Überlegenheit strategischer Datenkuratierung gegenüber der reinen Modellskalierung.

Unterstütze unsere unabhängige, frei zugängliche Berichterstattung. Jeder Betrag hilft und sichert unsere Zukunft. Jetzt unterstützen:
Banküberweisung
Zusammenfassung
  • Die LIMI-Methode chinesischer Forschender zeigt, dass 78 gezielt ausgewählte Trainingsbeispiele ausreichen, um bei komplexen Aufgaben im AgencyBench-Benchmark 73,5 % zu erreichen.
  • LIMI übertrifft in Aufgaben wie Softwareentwicklung, wissenschaftlichen Workflows und Coding-Benchmarks deutlich Modelle wie GLM-4.5, Deepseek-V3.1 und Kimi-K2, obwohl es mit wesentlich weniger Daten trainiert wurde.
  • Die Studie zeigt, dass strategische Datenkuratierung anstelle von Massen-Datensätzen die Entwicklung autonomer KI-Agenten effizienter machen kann.
Quellen
Jonathan ist Technikjournalist und beschäftigt sich stark mit Consumer Electronics. Er erklärt seinen Mitmenschen, wie KI bereits heute nutzbar ist und wie sie im Alltag unterstützen kann.
Community beitreten
Kommt in die DECODER-Community bei Discord,Reddit, Twitter und Co. - wir freuen uns auf euch!