Inhalt
summary Zusammenfassung

Eine neue Trainingsmethode könnte KI-Sprachmodelle befähigen, vielfältigere kreative Texte zu generieren, ohne dabei wesentlich an Qualität einzubüßen.

Anzeige

Forschende von Midjourney und der New York University haben in einem Paper eine Methode vorgestellt, mit der sich die Vielfalt der von KI-Sprachmodellen generierten Texte deutlich steigern lassen soll.

Der Ansatz integriert sogenannte "Abweichungsmetriken" in das Training der Modelle, was zu kreativeren und abwechslungsreicheren Ergebnissen führen soll. Die Abweichung zwischen Texten wird dabei über eingebettete Texte und deren paarweisen Kosinus-Abstand berechnet, wodurch sich die Unterschiedlichkeit von Texten mathematisch quantifizieren lässt.

Das System berücksichtigt beim Training, wie stark sich ein Textbeispiel von anderen Texten zum gleichen Prompt unterscheidet. Diese gemessene "Abweichung" fließt anschließend in die Trainingsoptimierung ein.

Anzeige
Anzeige
Dreistufiges Flussdiagramm: Prozess zur Verbesserung von KI-Antworten durch Abweichungsanalyse, DPO/ORPO-Training und Diversifizierung
Die Trainingsmethode verbessert die Qualität von KI-Antworten durch Bewertung der Abweichungen zwischen Antworten. | Bild: Chung et al.

Die Tests zeigen vielversprechende Ergebnisse: Die neuen Modelle erzeugten eine um durchschnittlich 23 Prozent größere Bandbreite an Texten. Die Qualität, gemessen am Reddit-Reward-Score, nahm dabei um rund fünf Prozent ab.

Ein Beispiel aus der Studie verdeutlicht die Unterschiede: Auf den Prompt "Warum zitterst du, mein Liebster? Du bist jetzt König" generierte GPT-4o hauptsächlich Geschichten über Selbstzweifel eines neuen Herrschers. Das neue Modell auf Basis des wesentlich kleineren Meta-Modells Llama-3.1-8B lieferte hingegen deutlich verschiedenere Varianten: von düsteren Fantasy-Geschichten über einen Bärenprinzen bis zu Erzählungen über übernatürliche Begegnungen unter Wasser.

[ALT-Text]Tabellarische Darstellung: Drei KI-Modelle (GPT-4, Llama-3.1) generieren unterschiedliche narrative Antworten auf einen königlichen Schreibprompt.
Für den gleichen Prompt generieren die modifizierten Llama-Modelle abwechslungsreichere Geschichten als GPT-4o. | Bild: Chung et al.
In Vergleichstests mit etablierten Modellen schnitt die neue Methode bezüglich der Textvielfalt besser ab. Eine Evaluation durch Menschen bestätigte diese Ergebnisse. Die Texte wurden als vielfältiger wahrgenommen, während die Qualität auf vergleichbarem Niveau blieb. Allerdings lassen die Wissenschaftler:innen ihre Lösung nur gegen das ältere OpenAI-Modell GPT-4o antreten, nicht das neueste GPT-4.5. Das soll wesentlich natürlichere Texte produzieren, ist allerdings auch eines der teuersten Modelle derzeit auf dem Markt.

Vergleichstabelle: DDPO-both vs. GPT-4o und DPO mit Gewinnraten für Storytelling-Qualität und Diversität, DDPO-both führt in allen Kategorien.
Die Vergleichsstudie zeigt die deutliche Überlegenheit des modifizierten Modells bei der Storytelling-Qualität und Diversität. | Bild: Chung et al.

Zwei Arten von Vielfalt im Fokus

Die Forschenden unterscheiden bei ihrer Arbeit zwischen zwei Arten von Vielfalt: semantischer und stilistischer Diversität. Die semantische Vielfalt bezieht sich auf unterschiedliche Inhalte und Handlungsstränge. Bei der stilistischen Vielfalt geht es darum, wie unterschiedlich die Texte geschrieben sind und ob sie sich wie Werke verschiedener Autoren lesen.

Das Team entwickelte spezielle Versionen ihrer Methode für beide Arten der Vielfalt. Die besten Ergebnisse erzielten sie mit einem Ansatz, der beide Aspekte kombinierte.

Empfehlung

Für ihre Studie nutzten die Forscher einen Datensatz des Subreddit r/WritingPrompts mit über 100.000 Prompt-Antwort-Paaren für Training und Evaluation. Bemerkenswert war, dass selbst mit nur vier verschiedenen Antworten pro Prompt bereits signifikante Verbesserungen in der Textvielfalt erzielt werden konnten.

Mögliche Qualitätseinbußen ließen sich durch besonders hochwertige Trainingsbeispiele oder einen festgelegten Mindestwert für die Abweichungsmetrik ausgleichen. Das macht die Methode flexibler einsetzbar als bestehende Ansätze zur Diversifizierung von KI-Outputs.

Herausforderungen bleiben bestehen

Trotz der vielversprechenden Ergebnisse bleiben offene Fragen. Noch müsse untersucht werden, ob sich der Ansatz auf andere Aufgaben wie Zusammenfassungen oder technische Dokumentation übertragen lässt.

Unklar ist genauso das Verhalten der Methode in Online-Trainingsszenarien, wie sie bei vielen großen Sprachmodellen zum Einsatz kommen. Auch die Reddit-Upvotes als Qualitätsmaß sind nicht optimal, weil diese nicht alle relevanten Aspekte der Textqualität abbilden.

Anzeige
Anzeige
Community beitreten
Kommt in die DECODER-Community bei Discord,Reddit, Twitter und Co. - wir freuen uns auf euch!

Die Ergebnisse könnten dennoch kreative KI-Anwendungen nachhaltig beeinflussen. Aktuelle KI-Modelle neigen häufig zu Wiederholungen oder verwandten narrativen Elementen.

Den Code wollen die Forschenden auf GitHub zur Verfügung stellen.

Unterstütze unsere unabhängige, frei zugängliche Berichterstattung. Jeder Betrag hilft und sichert unsere Zukunft. Jetzt unterstützen:
Banküberweisung
Zusammenfassung
  • Forschende von Midjourney und der New York University haben eine Trainingsmethode entwickelt, die KI-Sprachmodelle befähigt, vielfältigere Texte zu generieren.
  • Die Methode nutzt "Abweichungsmetriken", die während des Trainings messen, wie stark sich Texte voneinander unterscheiden. Das Team erweiterte dafür zwei bestehende Trainingsmethoden und testete den Ansatz mit über 100.000 Prompt-Antwort-Paaren von Reddit.
  • Die Qualität der Texte nimmt dabei um etwa fünf Prozent ab, während die Bandbreite der Antworten um 23 Prozent steigt. In Tests erzeugte das modifizierte Llama-3.1-8B-Modell deutlich verschiedenere Geschichten als GPT-4o - von Fantasy bis zu Unterwasser-Erzählungen.
Quellen
Jonathan ist Technikjournalist und beschäftigt sich stark mit Consumer Electronics. Er erklärt seinen Mitmenschen, wie KI bereits heute nutzbar ist und wie sie im Alltag unterstützen kann.
Community beitreten
Kommt in die DECODER-Community bei Discord,Reddit, Twitter und Co. - wir freuen uns auf euch!