Anzeige
Short

Der KI-Forscher Sebastian Raschka veröffentlicht eine umfassende Analyse zum Stand von Reinforcement Learning für Reasoning-Fähigkeiten großer Sprachmodelle (LRMs). Der Artikel erklärt die Rolle von Algorithmen wie PPO und GRPO sowie Trainingsmethoden wie RLHF und RLVR. Besonders im Fokus stehen Modelle wie DeepSeek-R1, die mithilfe verifizierbarer Belohnungen ohne menschliche Labels trainiert wurden. Raschka zeigt, wie RL das Schlussfolgern verbessert, welche Probleme wie zu lange falsche Antworten auftreten können und welche Modifikationen helfen.

Obwohl Schlussfolgerungen allein keine Wunderwaffe sind, verbessern sie (bislang) zuverlässig die Modellgenauigkeit und die Problemlösungsfähigkeiten bei anspruchsvollen Aufgaben. Ich gehe davon aus, dass auf Schlussfolgerungen ausgerichtetes Post-Training in zukünftigen LLM-Pipelines zur Standardpraxis werden wird.

Anzeige
Anzeige
Short

Der wohl interessanteste o3-Benchmark ist die Ausperformance bei der Verarbeitung langer Kontexte. Bei 128K Token (etwa 96.000 Wörter) von maximal 200K Token erreicht o3 im Fiction.live-Benchmark als erstes Modell 100 Prozent – das ist vielversprechend für KI-Anwendungen mit sehr langen Texten. Nur Googles Gemini 2.5 Pro kann mithalten und kommt auf 90,6 Prozent. o3-mini und o4-mini fallen deutlich ab. Fiction.LiveBench prüft, wie gut KI-Modelle komplexe Geschichten und Zusammenhänge bei sehr langen Texten komplett verstehen und korrekt wiedergeben. Ein Negativbeispiel ist Metas Llama 4, das zwar mit einem Kontextfenster von bis zu zehn Millionen Token wirbt, das aber über eine einfache Wortsuche hinaus kaum brauchbar ist.

Anzeige
Anzeige
Anzeige
Anzeige
Google News