Inhalt
summary Zusammenfassung

Ein Forschungsteam von Meta und der UC San Diego hat eine neue KI-Methode namens "Coconut" entwickelt, die es Sprachmodellen ermöglicht, in einem kontinuierlichen Raum statt in natürlicher Sprache zu denken. Die Ergebnisse zeigen deutliche Vorteile gegenüber herkömmlichen Methoden.

Anzeige

Ein Team von Forschern der UC San Diego und Meta hat eine neue Methode entwickelt, die es großen Sprachmodellen ermöglicht, ohne den "Umweg" über natürliche Sprache zu denken. Die als "Coconut" (Chain of Continuous Thought) bezeichnete Technik lässt KI-Modelle in einem kontinuierlichen mathematischen Raum operieren.

Laut der Studie funktioniert Coconut ähnlich wie die bekannte Chain-of-Thought-Methode, bei der KI-Modelle Schritt für Schritt in natürlicher Sprache denken. Der entscheidende Unterschied: Statt Gedankenschritte in Worten auszudrücken, arbeitet das System mit mathematischen Vektoren.

Bild: Meta

"Die meisten Wörter in einer Gedankenkette dienen nur der sprachlichen Kohärenz und sind für das eigentliche Denken nicht wesentlich", erklären die Forscher in ihrer Studie. Gleichzeitig erfordern einige kritische Wörter komplexe Planung und stellen große Herausforderungen für KI-Modelle dar.

Anzeige
Anzeige

Bessere Ergebnisse bei komplexen Aufgaben

Die Forscher testeten Coconut auf drei verschiedenen Aufgabentypen und verglichen die Ergebnisse direkt mit der etablierten Chain-of-Thought (CoT) Methode. Bei mathematischen Textaufgaben (GSM8k) erreichte Coconut 34,1 Prozent Genauigkeit und lag damit zwar unter CoT (42,9 Prozent), aber deutlich über der Baseline ohne Gedankenketten (16,5 Prozent).

Bei logischen Schlussfolgerungen zeigte sich jedoch ein anderes Bild: Im ProntoQA-Test, bei dem KI-Systeme logische Verbindungen zwischen Konzepten herstellen müssen, erreichte Coconut eine Genauigkeit von 99,8 Prozent und übertraf damit CoT (98,8 Prozent). Noch deutlicher war der Vorsprung beim neu entwickelten ProsQA-Test, der besonders viel Planungsfähigkeit erfordert: Hier erreichte Coconut 97 Prozent, während CoT nur auf 77,5 Prozent kam.

Coconut benötigte dabei deutlich weniger Tokens als CoT - bei ProntoQA nur 9 statt 92,5 Tokens und bei ProsQA 14,2 statt 49,4 Tokens. Diese Ergebnisse zeigen, dass die neue Methode vor allem bei komplexen logischen Aufgaben nicht nur genauer, sondern auch wesentlich effizienter arbeitet als traditionelle Ansätze.

Die Forscher stellten außerdem fest, dass das System in der Lage ist, mehrere mögliche nächste Denkschritte parallel zu verarbeiten und so vor der Token-Generierung schrittweise die falschen Optionen auszuschließen.

Training bleibt eine Herausforderung

Die Experimente zeigten aber auch Grenzen auf: Ohne spezielle Trainingsmethoden lernte das System nicht, effektiv im kontinuierlichen Raum zu denken. Für ihre Studie nutzten die Wissenschaftler ein vortrainiertes GPT-2-Modell als Grundlage. Sie entwickelten ein mehrstufiges Trainingscurriculum, bei dem auf jeder Stufe eine bestimmte Anzahl kontinuierlicher Gedanken integriert und im Gegenzug ein sprachlicher Denkschritt entfernt wurde. Mit fortschreitender Trainingsstufe erhöhte sich so der Anteil des latenten Denkens, während die sprachliche Argumentation schrittweise reduziert wurde.

Empfehlung

Die Ergebnisse weisen nach Ansicht der Forscher auf ein erhebliches Potenzial für die Weiterentwicklung von KI-Systemen hin. "Coconut zeigt, dass Denken im kontinuierlichen Raum die Fähigkeiten großer Sprachmodelle deutlich verbessern kann", schreiben die Autoren in ihrer Studie. Besonders vielversprechend sei die Beobachtung, dass das System selbstständig effektive Denkmuster entwickelt hat, die einer Breitensuche ähneln, ohne explizit darauf trainiert worden zu sein.

Für die Zukunft sehen die Forscher vor allem im Vortraining (Pretraining) größerer Sprachmodelle mit kontinuierlichen Gedanken ein großes Potenzial. Dadurch könnten die Modelle ihre Denkfähigkeiten auf ein breiteres Aufgabenspektrum übertragen. Auch wenn die aktuelle Version von Coconut noch auf bestimmte Aufgabentypen beschränkt ist, sind die Forscher überzeugt, dass ihre Erkenntnisse den Weg für fortschrittlichere Systeme des maschinellen Denkens ebnen werden.

Anzeige
Anzeige
Community beitreten
Kommt in die DECODER-Community bei Discord,Reddit, Twitter und Co. - wir freuen uns auf euch!
Unterstütze unsere unabhängige, frei zugängliche Berichterstattung. Jeder Betrag hilft und sichert unsere Zukunft. Jetzt unterstützen:
Banküberweisung
Zusammenfassung
  • Forscher von Meta und der UC San Diego haben eine neue KI-Methode namens "Coconut" entwickelt, die es Sprachmodellen ermöglicht, in einem kontinuierlichen mathematischen Raum statt in natürlicher Sprache zu denken.
  • Bei Tests zeigte Coconut vor allem bei komplexen logischen Aufgaben eine höhere Genauigkeit und Effizienz als die etablierte Chain-of-Thought-Methode. So erreichte es bei ProntoQA eine Genauigkeit von 99,8 % mit nur 9 Tokens, während CoT 98,8 % mit 92,5 Tokens erzielte.
  • Die Ergebnisse deuten laut der Forscher auf ein erhebliches Potenzial für die Weiterentwicklung von KI-Systemen hin, insbesondere durch das Vortraining von größeren Sprachmodellen mit kontinuierlichen Gedanken.
Quellen
Max ist leitender Redakteur bei THE DECODER. Als studierter Philosoph beschäftigt er sich mit dem Bewusstsein, KI und der Frage, ob Maschinen wirklich denken können oder nur so tun als ob.
Community beitreten
Kommt in die DECODER-Community bei Discord,Reddit, Twitter und Co. - wir freuen uns auf euch!