Skip to content

Forscher verbessern KI-Logik durch Fokus auf kritische Token

Image description
Midjourney prompted by THE DECODER

Kurz & Knapp

  • Forscher der Tsinghua University und des Tencent AI Lab haben eine Methode namens "cDPO" entwickelt, die die Argumentationsfähigkeit von KI-Sprachmodellen verbessert, indem sie besonders wichtige Wörter identifiziert.
  • Die Methode erkennt automatisch sogenannte "kritische Token", die einen überproportional großen Einfluss auf die Qualität von KI-Argumentationen haben. Dazu trainiert sie zwei separate Modelle auf korrekten und fehlerhaften Argumentationspfaden und vergleicht die Wahrscheinlichkeiten für die Generierung einzelner Token.
  • In Experimenten mit verschiedenen Sprachmodellen und Benchmarks erzielte cDPO höhere Erfolgsraten bei der Lösung von Argumentationsaufgaben als herkömmliche Alignmentmethoden, konnte die logischen Schwächen großer Sprachmodelle aber nicht vollständig beheben.

Forscher haben eine neue Methode entwickelt, die die Argumentationsfähigkeit von KI-Sprachmodellen verbessert. Der Schlüssel liegt in der Identifizierung besonders wichtiger Wörter.

Wissenschaftler der Tsinghua University und des Tencent AI Lab haben eine neue Methode namens "cDPO" (contrastive Direct Preference Optimization) vorgestellt, die die Argumentationsfähigkeit von großen Sprachmodellen verbessert.

Die Forscher entdeckten, dass einzelne Wörter - sogenannte "kritische Token" - einen überproportional großen Einfluss auf die Qualität von KI-Argumentationen haben können. In Experimenten konnten sie nachweisen, dass die gezielte Manipulation dieser Token die Wahrscheinlichkeit korrekter Antworten deutlich erhöht.

Das Token „geschuldet“ führt zu falschen Schlussfolgerungen und damit zu falschen Antworten. Im Gegensatz dazu verbessern alternativer Token wie „bezahlt“ die Genauigkeit der Schlussfolgerungen erheblich. | Bild: Lin, Liang, Xu et al.

cDPO identifiziert automatisiert kritische Token

Ausgehend von dieser Erkenntnis entwickelten die Forschenden cDPO (contrastive DPO), ein Verfahren zur automatischen Erkennung und Belohnung kritischer Token während des Alignment-Prozesses eines Sprachmodells. Die Methode verwendet kontrastive Schätzung, um diese kritischen Token zu identifizieren.

Dafür trainieren die Wissenschaftler zwei separate Modelle: ein "positives" Modell auf korrekten Argumentationspfaden und ein "negatives" Modell auf fehlerhaften Pfaden. Die beiden Modelle liefern unterschiedliche Wahrscheinlichkeiten für die Generierung einzelner Token.

Die Differenz dieser Wahrscheinlichkeiten dient als Indikator für die Kritikalität eines Tokens, erklären die Autoren. Je größer die Abweichung, desto wahrscheinlicher handelt es sich um ein kritisches Token, das zu fehlerhaften Schlussfolgerungen führt.

cDPO schlägt andere Alignmentmethoden

Die Forschenden evaluierten cDPO mit Llama-3 (8B und 70B) und deepseek-math (7B) auf den Benchmarks GSM8K und MATH500. Die Ergebnisse zeigen eine signifikante Verbesserung gegenüber herkömmlichen DPO-Varianten sowie anderen Alignmentmethoden. So erzielt cDPO in der Praxis durchweg höhere Erfolgsraten bei der Lösung von Argumentationsaufgaben.

Allerdings liegt die Verbesserung gegenüber den bisher besten Alignmentmethoden nur bei wenigen Prozentpunkten - die logischen Schwächen großer Sprachmodelle lassen sich also auch durch den Ausschluss kritischer Token nicht beheben.

Quelle: Arxiv

KI-News ohne Hype
Von Menschen kuratiert.

  • Mehr als 20 Prozent Launch-Rabatt.
  • Lesen ohne Ablenkung – keine Google-Werbebanner.
  • Zugang zum Kommentarsystem und Austausch mit der Community.
  • Wöchentlicher KI-Newsletter.
  • 6× jährlich: „KI Radar“ – Deep-Dives zu den wichtigsten KI-Themen.
  • Bis zu 25 % Rabatt auf KI Pro Online-Events.
  • Zugang zum kompletten Archiv der letzten zehn Jahre.
  • Die neuesten KI‑Infos von The Decoder – klar und auf den Punkt.
The Decoder abonnieren