Inhalt
summary Zusammenfassung

Forschende der Shanghai Jiao Tong University, der Fudan University, des Shanghai AI Laboratory und des Generative AI Research Lab haben eine Methode entwickelt, mit der stärkere KI-Modelle ihre Fähigkeiten zum logischen Schlussfolgern verbessern können - allein durch die Anleitung schwächerer Modelle.

Anzeige

Die Entwicklung von Superintelligenz, also von KI-Systemen, die menschliche kognitive Fähigkeiten übertreffen, bleibt ein zentrales Ziel im Bereich der Künstlichen Intelligenz.

Mit zunehmender Leistungsfähigkeit der KI-Modelle stoßen jedoch herkömmliche Feedbackmethoden und KI-Trainings an ihre Grenzen, da der Mensch darin eine entscheidende Rolle spielt.

Um dieses Problem anzugehen, stellt das Forschungsteam das "Weak-to-Strong"-Lernparadigma vor. Es soll starken Modellen helfen, ihr volles Potenzial zu entfalten, ohne auf menschliche Annotationen oder noch stärkere Modelle angewiesen zu sein.

Anzeige
Anzeige

Es handelt sich um einen zweistufigen Trainingsansatz, bei dem das starke Modell seine Trainingsdaten selbstständig verfeinert.

Bild: Liu et al.

In der ersten Stufe kombinieren die Forscher vom schwachen Modell (Llama2-7b, Gemma-2b und Mistral-7b) generierte Daten mit Daten, die das starke Modell (Llama2-70b) selbst durch "In-Context Learning" (Generierung mit Beispielen) erzeugt. Damit kuratieren sie selektiv Datensätze für das nachfolgende überwachte Finetuning.

In der zweiten Stufe wird das starke Modell durch Präferenzoptimierung weiter verbessert, indem es aus den Fehlern des schwachen Modells lernt.

KI optimiert Trainingsdaten besser als Menschen

Erste Ergebnisse aus Experimenten zeigen, dass der neue Ansatz deutlich besser abschneidet als einfaches Finetuning auf unbearbeiteten Daten. Im GSM8K-Benchmark für mathematische Aufgaben konnte die Leistung des starken Modells, das nur vom schwachen Gemma-2b-Modell beaufsichtigt wurde, um bis zu 26,99 Punkte gesteigert werden.

"Weak Floor" bezieht sich auf die alleinige Leistung des schwachen Modells im Benchmark, Full Weak FT auf ein Standard-Fine-Tuning ohne Datenvorbereitung. | Bild: Liu et al.

Eine weitere Verbesserung um 8,49 Punkte wurde durch die Präferenzoptimierung erreicht. Damit übertrifft die Methode sogar das Finetuning auf Goldstandard-Lösungen.

Empfehlung

Die Forscher betonen, dass ihre Methode es dem starken Modell ermöglicht, seine mathematischen Fähigkeiten kontinuierlich zu erweitern, indem es seine Trainingsdaten selbstständig verfeinert. Diese selbstgesteuerte Verfeinerung der Daten sei entscheidend für die Skalierung und Verbesserung der Fähigkeiten der KI.

Die Methode ist interessant, weil sie einen Ansatz zeigt, wie KI durch selbstständige Verfeinerung von Trainingsdaten Aufgaben bewältigen kann, für die es noch keine vordefinierten Lösungen durch Menschen oder KI gibt und für die herkömmliche Methoden der Feinabstimmung versagen. Es zeigt, wie fortgeschrittene KI-Modelle auch dann noch verbessert werden können, wenn die menschliche Aufsicht an ihre Grenzen stößt.

Auch der ehemalige OpenAI-Forscher Andreji Karpathy sieht in der Verwendung von KI-Modellen zur Optimierung von Trainingsdaten einen möglichen nächsten Treiber für KI-Fortschritte. KI könne den "perfekten Datensatz" für KI entwickeln.

Anzeige
Anzeige
Community beitreten
Kommt in die DECODER-Community bei Discord,Reddit, Twitter und Co. - wir freuen uns auf euch!
Unterstütze unsere unabhängige, frei zugängliche Berichterstattung. Jeder Betrag hilft und sichert unsere Zukunft. Jetzt unterstützen:
Banküberweisung
Zusammenfassung
  • Forscher der Shanghai Jiao Tong University, Fudan University, Shanghai AI Laboratory und des Generative AI Research Lab haben eine Methode entwickelt, mit der stärkere KI-Modelle ihre Fähigkeiten zum logischen Schlussfolgern verbessern können, indem sie von schwächeren Modellen angeleitet werden.
  • Der zweistufige "Weak-to-Strong"-Trainingsansatz ermöglicht es dem starken Modell, seine Trainingsdaten selbstständig zu verfeinern. In der ersten Stufe werden Daten vom schwachen und starken Modell kombiniert. In der zweiten Stufe lernt das starke Modell durch Präferenzoptimierung aus den Fehlern des schwachen Modells.
  • Experimente zeigen, dass der Ansatz deutlich besser abschneidet als einfaches Finetuning. Im GSM8K-Benchmark für mathematische Aufgaben konnte die Leistung des starken Modells um bis zu 26,99 Punkte gesteigert werden. Die Methode könnte es KI-Modellen ermöglichen, besser Aufgaben zu bewältigen, für die es noch keine vordefinierten Lösungen gibt.
Quellen
Online-Journalist Matthias ist Gründer und Herausgeber von THE DECODER. Er ist davon überzeugt, dass Künstliche Intelligenz die Beziehung zwischen Mensch und Computer grundlegend verändern wird.
Community beitreten
Kommt in die DECODER-Community bei Discord,Reddit, Twitter und Co. - wir freuen uns auf euch!