Inhalt
summary Zusammenfassung

Sprachmodelle neigen nach dem Training zu immer ähnlicheren Antworten. Das "Verbalized Sampling" soll gegen die zunehmende Stereotypisierung von Sprachmodellen nach dem Training helfen. 

Anzeige

Forschende verschiedener US-Universitäten führen das Problem auf menschliche Bewertungsmuster zurück. Ihre Analyse zeigt, dass Menschen bei der Bewertung von KI-Antworten systematisch vertraute und typische Texte bevorzugen. Diese Tendenz überträgt sich auf die Modelle und führt zu weniger vielfältigen Ausgaben.

Links: Direkt-Prompting liefert den gleichen Witz mehrfach; rechts: Verbalized Sampling erzeugt fünf verschiedene Witze mit zugeordneten Wahrscheinlichkeiten.
Links verdeutlicht das typische Direkt-Prompting, wie Typikalitäts-Bias zum immer gleichen Witz führt. Rechts zeigt Verbalized Sampling fünf unterschiedliche Witze mit verbalisierten Wahrscheinlichkeiten. | Bild: Zhang et al.

Die Wissenschaftler untersuchten diese Hypothese am HELPSTEER-Datensatz mit 6.874 Antwortpaaren. Menschliche Bewerter:innen bevorzugten durchweg Antworten, die von Basismodellen als wahrscheinlicher eingestuft wurden. Dieser Effekt zeigte sich unabhängig von der faktischen Korrektheit der Antworten und bestätigte sich über mehrere Datensätze hinweg.

Einfache Prompt-Änderung mit großer Wirkung

Der Lösungsansatz besteht darin, Sprachmodelle nicht nach einer einzelnen Antwort zu fragen, sondern nach mehreren Antworten mit entsprechenden Wahrscheinlichkeiten. Ein typischer Prompt sieht folgendermaßen aus:

Anzeige
Anzeige

<instruction>

Generate 5 responses to the user query, each within a separate <response> tag. Each <response> must include a <text> and a numeric <probability>.

Randomly sample the responses from the full distribution.

</instruction>

Write a 100-word story about a bear.

Das Team entwickelte drei Varianten der Methode. Die Standardversion fragt direkt nach mehreren Antworten mit Wahrscheinlichkeiten. Eine erweiterte Version nutzt schrittweises Reasoning vor der Antwortgenerierung. Die dritte Variante arbeitet über mehrere Gesprächsrunden hinweg. Alle Varianten funktionieren ohne zusätzliches Training der Modelle und benötigen keinen Zugang zu den internen Wahrscheinlichkeiten.

Tests zeigen deutliche Verbesserungen

Bei kreativen Schreibaufgaben steigerte Verbalized Sampling die Vielfalt um das 1,6- bis 2,1-fache. Direkte Prompts für Witze über Autos führten in allen fünf Versuchen zur exakt gleichen Antwort ("Why did the car get a flat tire? Because it ran over a fork in the road!"), während die neue Methode fünf völlig unterschiedliche Witze generierte (etwa "What kind of car does a Jedi drive? A Toy-Yoda!").

Balkendiagramme zeigen semantische Diversität (%) für Direct, CoT, Sequence, Multi-turn, VS-Standard, VS-CoT, VS-Multi bei Gedicht-, Geschichten- und Witzaufgaben.
Vergleich der semantischen Diversität für Gedicht-, Geschichten- und Witzaufgaben. | Bild: Zhang et al.

In Dialogsimulationen zeigten die Modelle menschenähnlichere Verhaltensweisen wie Widerstand gegen Überzeugungsversuche und realistische Meinungsänderungen. Bei der Simulation von Spendenbeträgen stimmten die Ergebnisse deutlich besser mit echtem menschlichen Verhalten überein.

Bei offenen Fragen wie "Name a US state" stimmte die Antwortverteilung fast perfekt mit den ursprünglichen Trainingsdaten überein. Standard-Prompts konzentrierten sich hingegen auf wenige häufige Antworten wie Kalifornien und Texas.

Drei Panels: Direkt vs VS Story-Textauszüge; Spenden-Boxplots für Direct, VS, Human; US-Staatenverteilungen für Direct, Pretraining-Referenz, VS.
Drei Anwendungsbeispiele: Story-Generation, Dialogsimulation, offene Fragen. | Bild: Zhang et al.

Modelle, die mit vielfältigeren synthetischen Mathematikaufgaben trainiert wurden, erreichten bessere Leistungen. Die durchschnittliche Genauigkeit stieg von 32,8 auf 37,5 Prozent.

Empfehlung

Größere Modelle profitieren überproportional von der Methode. Die Verbesserungen waren bei leistungsfähigeren Modellen 1,5 bis 2 Mal höher als bei kleineren Versionen.

Die Wissenschaftler:innen testeten die Kombination von Verbalized Sampling mit verschiedenen Generierungsparametern wie der Temperatureinstellung. Dabei zeigte sich, dass die Methode unabhängig von diesen Parametern funktioniert und sich zugleich mit ihnen zur weiteren Leistungssteigerung kombinieren lässt.

Scatterplots: Gedicht-Diversität vs. Qualität für GPT-4.1 und Gemini-2.5-Flash, Direct/Sequence/VS-Standard bei t = 0,4–1,4.
VS-Standard erreicht bei allen Temperaturen eine höhere Qualität von Gedichten bei gleichem Diversitätsniveau als die beiden Basismethoden. | Bild: Zhang et al.

Verbalized Sampling erzielte bei allen getesteten Temperatureinstellungen eine bessere Balance zwischen Qualität und Vielfalt als Standard-Prompts.

Auch kreativere Bildbeschreibungen

Die Methode zeigt außerdem Potenzial für die Bildgenerierung. Die Forschenden testeten Verbalized Sampling zur Erstellung von Bildbeschreibungen, die anschließend in Bildgeneratoren verwendet wurden. Für das Thema "Astronaut on a Horse" erzeugten Standard-Prompts durchweg fotorealistische Wüstenszenen mit ähnlicher Bildkomposition. Verbalized Sampling generierte hingegen deutlich vielfältigere Beschreibungen.

Anzeige
Anzeige
Community beitreten
Kommt in die DECODER-Community bei Discord,Reddit, Twitter und Co. - wir freuen uns auf euch!
Astronaut auf Pferd: obere Reihe photorealistische Direkt-Prompts; untere Reihe vielfältige Aquarell-, Barock- und Retro-Futurismus-Stile via Verbalized Sampling.
Die obere Reihe zeigt fünf fotorealistische Astronauten auf Pferden aus einfachen Direkt-Prompts. Die untere Reihe demonstriert mit Verbalized Sampling fünf unterschiedliche Stile von Retro-Futurismus, über Aquarell bis zu barocken Gemälden. | Bild: Zhang et al.

Tests mit über 350 problematischen Prompts bestätigten, dass die Sicherheit nicht beeinträchtigt wird. Die Ablehnungsraten blieben über 97 Prozent. Auch die Faktentreue blieb erhalten.

Die Forschenden haben Code und Anleitungen zur Methode veröffentlicht und sehen Anwendungsmöglichkeiten in Bereichen wie kreativem Schreiben, sozialer Simulation und Ideengenerierung.

Unterstütze unsere unabhängige, frei zugängliche Berichterstattung. Jeder Betrag hilft und sichert unsere Zukunft. Jetzt unterstützen:
Banküberweisung
Zusammenfassung
  • Forschende verschiedener US-Universitäten zeigen, dass Sprachmodelle nach dem Training dazu tendieren, immer ähnlichere Antworten zu geben, weil menschliche Bewerter:innen systematisch vertraute und typische Antworten bevorzugen.
  • Die Methode "Verbalized Sampling" fragt Sprachmodelle nach mehreren Antworten mit Wahrscheinlichkeiten statt nur einer Antwort. Dadurch entsteht deutlich mehr Vielfalt, etwa bei kreativen Schreibaufgaben, Dialogen und offenen Fragen.
  • In Tests erzeugte Verbalized Sampling vielfältigere Texte, realistischere Dialoge und abwechslungsreichere Bildbeschreibungen, ohne die Sicherheit oder Faktentreue zu beeinträchtigen.
Jonathan ist Technikjournalist und beschäftigt sich stark mit Consumer Electronics. Er erklärt seinen Mitmenschen, wie KI bereits heute nutzbar ist und wie sie im Alltag unterstützen kann.
Community beitreten
Kommt in die DECODER-Community bei Discord,Reddit, Twitter und Co. - wir freuen uns auf euch!