Inhalt
summary Zusammenfassung

Mit "Chain of Draft" (CoD) haben Forschende eine Methode vorgestellt, die es KI-Modellen ermöglicht, komplexe Aufgaben mit deutlich weniger Worten und höherer Geschwindigkeit zu lösen als bisher - angeblich ohne Einbußen bei der Genauigkeit.

Anzeige

CoD generiert dafür minimale, aber informative Zwischenergebnisse und löst Aufgaben mit bis zu 92,4 Prozent weniger Wörtern als mit der vergleichbaren Chain of Thought-Methode, ohne an Genauigkeit zu verlieren. Die Inspiration dafür: Statt jeden Gedankenschritt ausführlich auszuformulieren, halten Menschen oft nur das Wesentliche in Stichpunkten fest. CoD ahmt genau das nach.

Q: Jason had 20 lollipops. He gave Denny somelollipops. Now Jason has 12 lollipops. How many lollipops did Jason give to Denny? A: 8
So sieht eine beispielhafte Ein- und Ausgabe für eine Rechenaufgabe aus ... | Bild: Xu et al.
Q: Jason had 20 lollipops. He gave Denny some lollipops. Now Jason has 12 lollipops. How many lollipops did Jason give to Denny? A: Let’s think through this step by step: 1. Initially, Jason had 20 lollipops. 2. After giving some to Denny, Jason now has 12 lollipops. 3. To find out how many lollipops Jason gave to Denny, we need to calculate the difference between the initial number of lollipops and the remaining number. 4. We can set up a simple subtraction problem: Initial number of lollipops - Remaining number of lollipops = Lollipops given to Denny 5. Putting in the numbers: 20 - 12 = Lollipops given to Denny 6. Solving the subtraction: 20 - 12 = 8 Therefore, Jason gave 8 lollipops to Denny. #### 8 lollipops
... so nach der Chain-of-Thought-Methode ... | Bild: Xu et al.
Q: Jason had 20 lollipops. He gave Denny somelollipops. Now Jason has 12 lollipops. How many lollipops did Jason give to Denny? A: 20 - x = 12; x = 20 - 12 = 8. #### 8
... und so kompakt als Chain-of-Draft. | Bild: Xu et al.

Während der getestete Prompt in allen drei Beispielen derselbe ist, liegt der Unterschied im Systemprompt. Für CoD wurde ein Chain-of-Thought (CoT)-Prompt modifiziert und das Modell angewiesen, maximal fünf Wörter pro Schritt aufzunehmen.

Bild: Xu et al.

Kurze Denk-Prompts erzielen ähnliche Ergebnisse wie ausführliche

Die Forscherinnen und Forscher verglichen CoD mit ausführlichen CoT-Prompts und Standard-Prompts ohne Erklärungen. Bei arithmetischen Aufgaben, Verständnistests und symbolischen Schlussfolgerungen erzielte CoD eine ähnliche Genauigkeit wie CoT, benötigte aber 68 bis 86 Prozent weniger Wörter.

Anzeige
Anzeige

Im Vergleich zu Standard-Prompts, bei denen das Modell die Antwort ohne zusätzliche Denkschritte direkt ausgibt, stieg die Genauigkeit beispielsweise bei Verständnisaufgaben zu Datumsangaben von 72,6 auf 88,1 Prozent (GPT-4o) bzw. von 84,3 auf 89,7 Prozent (Claude 3.5 Sonnet).

Vergleichstabelle: Performance-Metriken für GPT-4o und Claude 3.5 mit verschiedenen Prompting-Methoden (Standard, CoT, CoD), inkl. Accuracy, Token, Latenz.
Chain of Draft (CoD) scheint die Performance nur geringfügig zu beeinträchtigen, benötigt aber deutlich weniger Token. | Bild: Xu et al.

Weniger Rechenzeit und Kosten durch CoD

Chain of Draft reduziert direkt die Anzahl der Output-Token, da das Modell kürzere Zwischenschritte in der Argumentation erzeugt. Darüber hinaus kann es in bestimmten Situationen indirekt die Anzahl der Eingabe-Token reduzieren, insbesondere wenn mit Beispiellösungen in Prompts gearbeitet wird. Wenn diese Beispiele im Chain-of-Draft-Format erstellt werden, wird jedes Beispiel kürzer.

Diese kombinierte Reduzierung von Eingabe- und Ausgabetoken senkt die Rechenkosten und ermöglicht schnellere Antworten, was CoD für große LLM-Implementierungen und Anwendungen mit begrenztem Budget interessant macht.

Allerdings eignen sich kompakte Prompts nicht für jede Aufgabe. Manche erforderten längere Überlegungen, Selbstkorrekturen oder den Zugriff auf externes Wissen.

Hier sehen die Forschenden Potenzial, CoD mit Ansätzen wie adaptivem parallelem Schlussfolgern oder mehrstufiger Validierung zu kombinieren. Die Erkenntnisse könnten auch das Training von KI-Modellen beeinflussen, indem kompakte Denkvorgänge als Trainingsdaten dienen.

Empfehlung

Die Chain-of-Draft-Methode hat ein Forschungsteam von Zoom Communications, dem Hersteller der gleichnamigen Videokonferenzsoftware entwickelt. Schon seit 2023 bietet das Tool einen "AI Companion", der Meetings virtuell begleitet, Zusammenfassungen und Vorschläge liefern kann. Gerade die Latenz, also die benötigte Zeit bis zur fertigen Antwort, sei bis jetzt häufig ignoriert worden. In Echtzeitsituationen wie Videotelefonaten könnte Chain-of-Draft in Zukunft eine Rolle spielen.

Anzeige
Anzeige
Community beitreten
Kommt in die DECODER-Community bei Discord,Reddit, Twitter und Co. - wir freuen uns auf euch!
Unterstütze unsere unabhängige, frei zugängliche Berichterstattung. Jeder Betrag hilft und sichert unsere Zukunft. Jetzt unterstützen:
Banküberweisung
Zusammenfassung
  • Forschende von Zoom haben mit "Chain of Draft" (CoD) eine Methode entwickelt, die es KI-Modellen ermöglicht, komplexe Aufgaben mit bis zu 92,4 Prozent weniger Wörtern und schneller als bisher zu lösen, ohne dabei an Genauigkeit einzubüßen.
  • CoD erzeugt minimale, aber informative Zwischenergebnisse, ähnlich wie Menschen oft nur das Wesentliche in Stichpunkten festhalten.
  • In Tests erreichte CoD eine ähnliche Genauigkeit wie das ausführliche "Chain of Thought"-Prompting, benötigte aber 68 bis 86 Prozent weniger Wörter. Weniger Wörter bedeuten weniger Eingabe-Token und kürzere Ausgaben, was den Rechenaufwand reduziert.
Quellen
Jonathan ist Technikjournalist und beschäftigt sich stark mit Consumer Electronics. Er erklärt seinen Mitmenschen, wie KI bereits heute nutzbar ist und wie sie im Alltag unterstützen kann.
Community beitreten
Kommt in die DECODER-Community bei Discord,Reddit, Twitter und Co. - wir freuen uns auf euch!