Inhalt
summary Zusammenfassung

Eine neue Prompting-Technik namens "Highlighted Chain of Thought" (HoT) soll große Sprachmodelle dazu bringen, ihre Antworten besser zu belegen und für Menschen nachvollziehbarer zu machen.

Anzeige

Die Technik besteht aus zwei Hauptschritten: Zunächst reformatiert das KI-Modell die ursprüngliche Frage und hebt Schlüsselfakten mit XML-Tags hervor. Anschließend generiert es eine Antwort, die mit entsprechenden Tags versehen ist, um auf die markierten Fakten in der Frage zu verweisen.

Das zwinge die Modelle, die Fakten der Frage besser zu berücksichtigen und reduziere so möglicherweise Halluzinationen, erklären die Forscher. Gleichzeitig helfen die farbigen Hervorhebungen den Menschen, die Antworten der KI schneller zu überprüfen.

Dreistufiges Beispiel: Transformation einer Textaufgabe durch XML-Tags und Highlighting für bessere Lesbarkeit.
Die XML-basierte Highlighting-Technik von HoT strukturiert mathematische Textaufgaben durch systematische Markierung relevanter Informationen. Die visuelle Aufbereitung verbessert die Lesbarkeit und das Verständnis. | Bild: Nguyen et al.

Für ihre Experimente nutzten die Wissenschaftlerinnen und Wissenschaftler insgesamt 15 von Menschen annotierte Beispielpaare (Frage-Antwort-Paare), um KI-Modelle mittels Prompts darauf zu trainieren, selbstständig Hervorhebungen zu erzeugen.

Anzeige
Anzeige

HoT verbessert laut den Forschern die Genauigkeit der KI-Modelle über verschiedene Aufgabentypen hinweg. In der Spitze konnte das Prompting-Prinzip je nach Modell und Benchmark Verbesserungen von bis zu 15 Prozent erzielen.

Bei arithmetischen Aufgaben stieg die Genauigkeit durchschnittlich um 1,6 Prozentpunkte, bei Frage-Antwort-Aufgaben um 2,58 Punkte und bei logischen Schlussfolgerungen um 2,53 Punkte im Vergleich zur herkömmlichen Chain-of-Thought-Methode (CoT), die auch aktuellen Reasoning-Modellen wie OpenAI o3 zugrunde liegt.

Vergleichstabellen und Beispiele: HoT vs CoT Leistung bei verschiedenen LLMs, mit detaillierten Aufgabenbeispielen zur Visualisierung der Methodik.
Die Studie zeigt teils signifikante Verbesserungen durch die HoT-Methode gegenüber CoT bei arithmetischen und QA-Aufgaben. Besonders stark sind die Leistungssteigerungen bei AQUA (+14.64) und StrategyQA (+15.07). | Bild: Nguyen et al.

Die Wissenschaftler testeten HoT mit fünf verschiedenen KI-Modellen, darunter GPT-4o, Gemini-1.5-Pro, Gemini-1.5-Flash sowie Llama-3.1-70B und Llama-3.1-405B. Die Tests umfassten 17 verschiedene Aufgabentypen aus den Bereichen Arithmetik, Leseverständnis und logisches Denken.

Reasoning-Modelle profitierten in den Tests kaum oder nicht von HoT, im Gegenteil, Deepseek-R1 schnitt sogar etwas schlechter ab. Die Wissenschaftler führen das auf das Beispiel-Prompting zurück, das bei Reasoning-Modellen zu schlechteren Ergebnissen führen kann.

Schnellere, aber nicht immer bessere Überprüfung

Tests mit menschlichen Nutzern ergaben, dass diese mit den hervorgehobenen Antworten rund 25 Prozent weniger Zeit für die Überprüfung benötigten. Allerdings führten die Hervorhebungen auch dazu, dass die Benutzer den KI-Antworten eher vertrauten, auch wenn diese falsch waren.

Empfehlung

Bei richtigen Antworten lag die Erkennungsrate mit Hervorhebungen bei 84,5 Prozent, ohne Hervorhebungen bei 78,8 Prozent. Bei falschen Antworten hingegen sank die Erkennungsrate von 72,2 auf 54,8 Prozent, wenn Hervorhebungen vorhanden waren. Tests mit KI-Modellen als Prüfer zeigten keine generelle Verbesserung.

HoT macht die KI-Fehlerprüfung durch Menschen schneller, aber auch anfälliger. | Bild: Nguyen et al.

Dennoch sehen die Forscher großes Potenzial in der Technologie: HoT könne ein Schritt sein, um KI-Systeme transparenter und verständlicher zu machen, so ihr Fazit. Allerdings müsse noch weiter erforscht werden, wie sich die Hervorhebungen auf das Vertrauen der Nutzer auswirken.

Trotz der vielversprechenden Ergebnisse hat die HoT-Methode auch Einschränkungen. Bei kleineren Modellen wie Llama-3.1-8B und Qwen-2.5-Coder-32B zeigt HoT keine konsistenten Verbesserungen. Diese Modelle haben Schwierigkeiten, den Tagging-Anweisungen zu folgen, und tendieren dazu, berechnete Ergebnisse innerhalb der Gedankenketten zu markieren oder die Beispiele zu wiederholen.

Außerdem kann das Verschieben von Tags in der Antwort zu zufälligen Phrasen die Genauigkeit erheblich beeinträchtigen, was die Bedeutung der Übereinstimmung zwischen Tags in Fragen und Antworten unterstreicht.

Anzeige
Anzeige
Community beitreten
Kommt in die DECODER-Community bei Discord,Reddit, Twitter und Co. - wir freuen uns auf euch!

Für die Zukunft planen die Wissenschaftler, KI-Modelle direkt für die Generierung von HoT-Antworten zu trainieren, anstatt sich auf Beispiele im Prompt zu verlassen. Dies könnte die Methode noch effektiver machen und breiter anwendbar.

Die Forschungsarbeit wurde auf dem Preprint-Server arXiv veröffentlicht und auf einer Projektseite. Die Forscher stellen ihren Code und ihre Daten bei Github zur Verfügung.

Unterstütze unsere unabhängige, frei zugängliche Berichterstattung. Jeder Betrag hilft und sichert unsere Zukunft. Jetzt unterstützen:
Banküberweisung
Zusammenfassung
  • Wissenschaftler haben die Prompting-Methode "Highlighted Chain of Thought" (HoT) entwickelt, die KI-Modelle dazu bringt, ihre Antworten mit XML-Tags zu markieren und dadurch besser nachvollziehbar zu machen.
  • In Tests mit fünf KI-Modellen wie GPT-4 und Gemini-1.5 verbesserte HoT die Genauigkeit bei verschiedenen Aufgabentypen um bis zu 15 Prozent. Menschen prüften die markierten Antworten 25 Prozent schneller, vertrauten ihnen aber auch häufiger - selbst wenn sie falsch waren.
  • Die Methode funktioniert bei kleineren Modellen wie Llama-3.1-8B bisher nicht zuverlässig, da sie Prompts nicht genau genug folgen. Die Forscher planen, KI-Modelle künftig direkt für HoT-Antworten zu trainieren.
Quellen
Online-Journalist Matthias ist Gründer und Herausgeber von THE DECODER. Er ist davon überzeugt, dass Künstliche Intelligenz die Beziehung zwischen Mensch und Computer grundlegend verändern wird.
Community beitreten
Kommt in die DECODER-Community bei Discord,Reddit, Twitter und Co. - wir freuen uns auf euch!