Inhalt
summary Zusammenfassung

Das Framework SwiReasoning soll großen Sprachmodellen dabei helfen, effizienter zu denken. Das System wechselt automatisch zwischen verschiedenen Reasoning-Modi und verbessert dabei sowohl Genauigkeit als auch Token-Verbrauch.

Anzeige

Ein Forschungsteam der Georgia Tech und Microsoft hat das Framework SwiReasoning entwickelt, das zwei unterschiedliche Ansätze des maschinellen "Denkens" kombiniert. Laut den Entwickler:innen stellt das Framework eine "konzeptionell einfache, aber empirisch effektive" Lösung für verbessertes LLM-Reasoning dar, die sowohl die Genauigkeit als auch die Effizienz von KI-Systemen bei komplexen Denkaufgaben steigern soll.

Video: Shi et al.

Automatische Umschaltung basierend auf Unsicherheit

Das Kernprinzip von SwiReasoning basiert auf der automatischen Umschaltung zwischen zwei Denkarten, Chain-of-Thought und latentem Reasoning. Während Chain-of-Thought-Prozesse schrittweise und explizit in natürlicher Sprache erfolgen, arbeitet das latente Reasoning im kontinuierlichen Vektorraum des Modells, ohne Textausgabe nach außen.

Anzeige
Anzeige

SwiReasoning steuert den Wechsel zwischen diesen Modi anhand der Unsicherheit des Modells, die durch die Entropie der Token-Wahrscheinlichkeiten gemessen wird. Eine niedrige Entropie steht für hohe Sicherheit, eine hohe Entropie für Unsicherheit.

Technisches Diagramm mit zwei Hauptteilen: Teil A zeigt Unsicherheitskurven und den Wechsel zwischen explizitem Reasoning (Argmax-Auswahl) und latentem Reasoning (gewichtete Wahrscheinlichkeits-Mischung). Teil B zeigt die Kontrolle der Umschaltungen durch sequenzielle Blöcke mit Stop-Mechanismen für die finale Antwortgenerierung.
Links: automatischer Wechsel zwischen explizitem und latentem Reasoning in Abhängigkeit von der Modellunsicherheit. Rechts: Switch Count Control begrenzt die Anzahl der Umschaltungen, um Overthinking zu vermeiden. | Bild: Shi et al.

Sinkt die Unsicherheit, schaltet das System vom latenten in den expliziten Modus, um die aktuelle Gedankenkette zu konsolidieren. Steigt die Unsicherheit wieder, wechselt es zurück in den latenten Modus, um alternative Lösungswege im Vektorraum zu prüfen.

Um ständige Wechsel zu verhindern, nutzt SwiReasoning asymmetrische Verweilzeiten: Der Wechsel zum expliziten Modus kann sofort erfolgen, der Rückwechsel jedoch erst nach einer Mindestanzahl an Schritten.

Kontrolle gegen endloses Grübeln

Ein weiterer zentraler Mechanismus ist die Begrenzung der Modusumschaltungen, um sogenanntes „Overthinking“ zu vermeiden. SwiReasoning setzt hierbei eine Obergrenze für die Anzahl der Wechsel zwischen latentem und explizitem Denken.

Wird die Hälfte dieses Limits erreicht, aktiviert sich ein Mechanismus, der das Modell dazu anregt, seine Denkphase zu beenden. Bei Überschreitung der maximalen Zahl erzwingt das Framework die sofortige Generierung einer Antwort. So verhindert SwiReasoning, dass das Modell unnötig viele Tokens für ergebnisloses Nachdenken verbraucht.

Empfehlung

Leichte Verbesserungen bei schwierigen Aufgaben

Die Entwickler:innen testeten SwiReasoning auf drei aktuellen, kleineren Modellen unter zehn Milliarden Parametern, nämlich Qwen3-8B, Qwen3-1.7B und einer destillierten Variante von Deepseek R1 mit acht Milliarden Parametern.

Die Evaluation erfolgte auf fünf Benchmarks für Mathematik und naturwissenschaftliche Aufgaben, darunter Grundschul-Mathematik, Hochschul-Wettbewerbsaufgaben und Graduierten-Level-Fragen.

Tabelle mit Genauigkeitswerten in Prozent für vier Reasoning-Methoden getestet auf fünf Benchmarks (GSM8K, MATH500, GPQA Diamond, AIME 2024, AIME 2025) mit drei KI-Modellen unterschiedlicher Größe. SwiReasoning zeigt grün hinterlegte Verbesserungen gegenüber den Baseline-Methoden, mit den stärksten Gewinnen bei schwierigen AIME-Aufgaben
SwiReasoning erzielte durchschnittlich 2,17 Prozentpunkte höhere Genauigkeit über drei Modelle hinweg. | Bild: Shi et al.

Ohne Token-Beschränkung erreichte SwiReasoning Genauigkeitssteigerungen von bis zu 2,8 Prozent bei Mathematik- und 2 Prozent bei naturwissenschaftlichen Aufgaben. Besonders bei anspruchsvollen Benchmarks zeigte sich der größte Zugewinn mit Absolutwerten von mehr als drei Prozentpunkten.

Die Forschenden schließen daraus, dass der intelligente Wechsel zwischen Denkmodi besonders bei komplexen Aufgaben mit langen Reasoning-Ketten von Vorteil ist.

Anzeige
Anzeige
Community beitreten
Kommt in die DECODER-Community bei Discord,Reddit, Twitter und Co. - wir freuen uns auf euch!

Deutlich höhere Token-Effizienz

Unter begrenzten Token-Budgets traten die Vorteile noch deutlicher hervor. SwiReasoning steigerte die Token-Effizienz – also die erreichte Genauigkeit pro Token – um 56 bis 79 Prozent, in einzelnen Fällen sogar auf das 6,8-Fache gegenüber Standard-Chain-of-Thought.

Die Token-Effizienz misst, wie viel Genauigkeit pro verbrauchtem Token erreicht wird. Eine höhere Effizienz bedeutet, dass das Modell mit weniger Rechenaufwand bessere Ergebnisse erzielt.

Diagramm mit 15 Untergrafiken, die Token-Effizienz gegen Generierungslänge für drei KI-Modelle auf fünf Benchmarks zeigen. SwiReasoning übertrifft andere Methoden mit Effizienzsteigerungen zwischen 25% und 213% je nach Aufgabe und Modell.
SwiReasoning (grüne Linie) erzielt konstant höhere Effizienzwerte als Standard Chain-of-Thought, Greedy Decoding und Soft Thinking bei unterschiedlichen Token-Budgets. | Bild: Shi et al.

Bei Experimenten mit mehreren Antwortversuchen benötigte SwiReasoning teils deutlich weniger Wiederholungen, um die maximale Genauigkeit zu erreichen: in einem Fall nur 13 Versuche statt 46, also 72 Prozent weniger als herkömmliche Ansätze.

SwiReasoning kommt ohne zusätzliches Training aus. Es lässt sich direkt als Ersatz für Standard-Generierungsfunktionen in bestehenden Modellen einsetzen, ohne Änderungen an Architektur oder Parametern.

Die Implementierung steht auf GitHub zur Verfügung und kann mit weiteren Effizienzmethoden wie Speicheroptimierung oder beschleunigtem Decoding kombiniert werden.

Unterstütze unsere unabhängige, frei zugängliche Berichterstattung. Jeder Betrag hilft und sichert unsere Zukunft. Jetzt unterstützen:
Banküberweisung
Zusammenfassung
  • Ein Forschungsteam von Georgia Tech und Microsoft hat mit SwiReasoning ein Framework vorgestellt, das große Sprachmodelle effizienter zwischen Chain-of-Thought und latentem Reasoning umschalten lässt, basierend auf der Unsicherheit des Modells.
  • SwiReasoning begrenzt gezielt die Anzahl der Denkmodus-Wechsel und verhindert dadurch übermäßiges Grübeln, was insbesondere bei komplexen Aufgaben eine höhere Genauigkeit und bis zu 6,8-fache Token-Effizienz im Vergleich zu Standardmethoden ermöglicht.
  • Die Lösung benötigt kein zusätzliches Training und kann direkt in bestehende Modelle integriert werden, wobei sie laut Tests auf Mathematik- und Wissenschaftsbenchmarks leichte, aber konsistente Verbesserungen bei Genauigkeit und Effizienz zeigt.
Quellen
Jonathan ist Technikjournalist und beschäftigt sich stark mit Consumer Electronics. Er erklärt seinen Mitmenschen, wie KI bereits heute nutzbar ist und wie sie im Alltag unterstützen kann.
Community beitreten
Kommt in die DECODER-Community bei Discord,Reddit, Twitter und Co. - wir freuen uns auf euch!