Inhalt
summary Zusammenfassung

Sprachmodelle können besser schließen, wenn sie Zwischenschritte aufschreiben. Eine neue Studie zeigt, wie dieses "System 2 Reasoning" zumindest teilweise in Sprachmodellen trainiert werden kann.

Anzeige

In den letzten Jahren haben KI-Methoden wie Chain-of-Thought Prompting oder Branch-Solve-Merge gezeigt, dass große Sprachmodelle bessere Ergebnisse erzielen, wenn man sie dazu bringt, ihre Antworten in mehreren Schritten zu generieren.

Dieser zweistufige Denkprozess ähnelt dem menschlichen "System 2 Reasoning" nach Daniel Kahnemann, bei dem Informationen langsam und bewusst verarbeitet werden. Das Gegenstück dazu ist das "System 1", ein schnelles, unbewusstes und automatisiertes Denken.

Forscher von Meta AI haben nun eine Methode entwickelt, um das rechenintensive "System 2 Reasoning" von KI-Modellen in die Parameter eines Sprachmodells zu "destillieren". Die Ergebnisse zeigen, dass das resultierende "System 1"-Modell in einigen Fällen eine ähnlich gute Leistung erzielt wie das ursprüngliche zweistufige Verfahren - bei deutlich geringerem Rechenaufwand.

Anzeige
Anzeige

Das Verfahren funktioniert folgendermaßen: Zunächst wird das "System 2"-Modell auf eine große Menge von Beispieldaten angewendet. Dann werden die Antworten gefiltert, z.B. indem nur konsistente Ergebnisse beibehalten werden. Schließlich werden diese Daten verwendet, um das Sprachmodell durch Feintuning zu trainieren. Im Wesentlichen erzeugt das Team also synthetische Trainingsdaten für weitere Modelle über System-2-Prompts.

Chain-of-Thought bleibt außer Reichweite

Die Wissenschaftler wandten die Methode auf vier verschiedene "System 2"-Ansätze und fünf Aufgabentypen an. Sie stellten fest, dass die Destillation in vielen, aber nicht allen Fällen funktioniert.

Bei Methoden wie System 2 Attention zur Vermeidung von Verzerrungen oder Rephrase and Respond zur Verbesserung der Antworten zeigte sich, dass die resultierenden "System 1"-Modelle ähnliche Ergebnisse lieferten wie die "System 2"-Varianten, allerdings mit deutlich weniger generierten Tokens.

Ausgerechnet bei komplexen mathematischen Schlussfolgerungen mittels Chain-of-Thought Prompting gelang die Destillation jedoch nicht. Die Forscher vermuten, dass dies daran liegt, dass manche Aufgaben für das "System 1"-Denken einfach zu komplex sind - zumal die Modelle auch mit CoT immer wieder an logischen Aufgaben scheitern.

Dennoch sehen die Forscher in ihrer Methode einen vielversprechenden Ansatz für die Entwicklung leistungsfähiger KI-Systeme, die sich dann mit anderen Methoden wie CoT auf die wirklich herausfordernden Probleme konzentrieren können.

Anzeige
Anzeige
Community beitreten
Kommt in die DECODER-Community bei Discord,Reddit, Twitter und Co. - wir freuen uns auf euch!
Empfehlung
Unterstütze unsere unabhängige, frei zugängliche Berichterstattung. Jeder Betrag hilft und sichert unsere Zukunft. Jetzt unterstützen:
Banküberweisung
Zusammenfassung
  • Meta AI Forscher entwickeln eine Methode, um das rechenintensive "System 2 Reasoning" von KI-Modellen in die Parameter eines Sprachmodells zu "destillieren". Das resultierende "System 1"-Modell erzielt in einigen Fällen ähnlich gute Ergebnisse bei deutlich geringerem Rechenaufwand.
  • Dazu wird zunächst das "System 2"-Modell auf Beispieldaten angewendet, die Antworten gefiltert und schließlich das Sprachmodell mit diesen synthetischen Trainingsdaten per Finetuning trainiert.
  • Die Destillation funktioniert bei Methoden wie System 2 Attention und Rephrase and Respond, scheitert jedoch bei komplexen Chain-of-Thought Prompts für mathematische Schlussfolgerungen. Dennoch sehen die Forscher darin einen vielversprechenden Ansatz, um leistungsfähige KI-Systeme zu entwickeln, die sich auf herausfordernde Probleme konzentrieren können.
Quellen
Max ist leitender Redakteur bei THE DECODER. Als studierter Philosoph beschäftigt er sich mit dem Bewusstsein, KI und der Frage, ob Maschinen wirklich denken können oder nur so tun als ob.
Community beitreten
Kommt in die DECODER-Community bei Discord,Reddit, Twitter und Co. - wir freuen uns auf euch!