Inhalt
summary Zusammenfassung

Ein neues Verfahren hilft KI-Textgeneratoren, den Stil eines Beispieltextes besser zu übernehmen - ohne den ursprünglichen Inhalt zu verfälschen. Grundlage ist ein aus der Linguistik bekanntes Modell.

Anzeige

Forschende der University of Maryland haben ein neues Verfahren entwickelt, mit dem große Sprachmodelle Texte stilistisch umschreiben können, ohne ihren Inhalt stark zu verändern. Der Ansatz nutzt die sogenannte Registeranalyse, ein linguistisches Modell zur Beschreibung von Sprachstil, und soll deutlich bessere Ergebnisse liefern als andere Prompt-Ansätze.

Beim Stiltransfer ("Style Transfer") wird ein Text so umgeschrieben, dass er stilistisch dem Stil eines anderen Textes entspricht. Ein typischer Anwendungsfall wäre zum Beispiel, aus einem informellen Social-Media-Post einen höflichen Bewerbungstext zu machen - oder umgekehrt. Das Ziel: Der Inhalt soll gleich bleiben, aber der Ton soll sich ändern.

Bisheriger Stiltransfer oft zu vage – oder zu kreativ

Bisherige Verfahren arbeiten meist mit einfachen Anweisungen wie „Mach den Text höflicher“ oder „Schreibe wie Shakespeare“. Fortgeschrittene Verfahren wie STYLL lassen ein Sprachmodell aus Beispieltexten eine Liste von Stilbegriffen erzeugen („locker“, „witzig“, „ernst“) und verwenden diese zur Umschreibung.

Anzeige
Anzeige

Das Problem: Solche offenen Beschreibungen sind oft ungenau. Modelle wie GPT oder LLaMA neigen dazu, bei der Umschreibung neue Inhalte zu erfinden oder den Text komplett umzugestalten. Das ist besonders problematisch, wenn es auf die exakte Bedeutung ankommt - zum Beispiel bei juristischen, medizinischen oder wissenschaftlichen Texten.

Ein Beispiel aus dem Paper: Der Satz „Verratti is practically untouchable. He’s signing an extension every year or so and PSG won’t sell for even a €100m“ wurde von der alten STYLL-Methode mit Ausdrücken wie „legend“, „bread and butter of the team“ oder „locking down new deals“ umformuliert - Aussagen die im Original nicht vorkamen.

Linguistik statt Bauchgefühl: Registeranalyse nach Biber

Die neue Methode basiert auf der so genannten Registeranalyse nach Douglas Biber. Dabei wird Sprache nach messbaren sprachlichen Merkmalen beschrieben und nicht nach Gefühl oder Stil. Wie viele Nomen enthält ein Text? Wie oft werden Hilfsverben verwendet? Wie abstrakt oder konkret ist die Sprache?

Um diese Analyse in Sprachmodelle einfließen zu lassen, haben die Forscherinnen und Forscher zwei Prompting-Strategien entwickelt:

  • In der ersten Variante „RG“ analysiert das Modell zunächst nur den Zieltext entlang der Registerdimensionen und leitet daraus typische Stiladjektive wie „informell“, „technisch“ oder „spielerisch“ ab. Diese dienen dann als Anleitung, um den Ausgangstext entsprechend stilistisch umzuschreiben.
  • Die zweite Variante, „RG-Kontrastiv“, geht noch einen Schritt weiter: Sie vergleicht gezielt den Stil von Ausgangs- und Zieltext. Dadurch kann das Modell besser einschätzen, in welche Richtung der Stil verändert werden soll - etwa von nüchtern zu umgangssprachlich oder von emotional zu sachlich.

Beide Varianten folgen dem gleichen Schema: Zuerst wird der Stil analysiert, dann in klaren Adjektiven beschrieben (z.B. „casual, sarcastic, conversational“) und schließlich wird der Originaltext damit stilistisch umformuliert. Das Verfahren arbeitet vollständig Prompt-basiert - es werden keine zusätzlichen Trainingsdaten benötigt.

Empfehlung

Aus dem oben zitierten Satz „Verratti is practically untouchable. PSG won’t sell for even a €100m.“ wird mit dem Zielstil „informal, conversational“ etwa: „Dude, Verratti’s basically locked in. PSG wouldn’t even blink at a hundred mil.“

Besserer Stil, weniger Halluzinationen

Tests mit LLaMA-Modellen zeigten, so das Team, dass die neue Methode bestehende Verfahren wie STYLL in fast allen Aufgaben übertrifft. Besonders gut schnitt sie bei der Nachahmung von Schreibstilen aus Reddit oder bei der Umwandlung von formalen Texten in Umgangssprache (und umgekehrt) ab.

Bei der Vereinfachung medizinischer Fachtexte war RG-Contrastive am erfolgreichsten. Die Vereinfachung war lesbarer, enthielt aber weniger erfundene oder fehlgeleitete Inhalte als bei älteren Methoden.

Ein weiterer Vorteil: Die neue Methode funktioniert bereits mit kleineren Sprachmodellen (3 bis 8 Milliarden Parameter), was sie für ressourcensparende Anwendungen interessant machen könnte – etwa für Schreibassistenten oder mobile KI-Anwendungen.

Anzeige
Anzeige
Community beitreten
Kommt in die DECODER-Community bei Discord,Reddit, Twitter und Co. - wir freuen uns auf euch!

Stil mit Maß: Weniger Kopieren, mehr Kontrolle

Die Forscherinnen und Forscher überprüften auch, ob sich die Modelle zu sehr an den Beispieltexten orientierten und einfach Passagen daraus übernahmen. Die so genannte Zieltextüberlappung war bei der neuen Methode jedoch deutlich geringer als bei einfachen Prompting-Strategien.

Außerdem war der erzeugte Text - gemessen mit dem CoLA-Modell zur Bewertung der Sprachakzeptanz - meist grammatikalisch korrekt. STYLL und andere Methoden lieferten zwar manchmal stilistisch angemessene Texte, führten aber häufiger zu inhaltlichen Fehlern oder ungrammatikalischen Sätzen.

Ein abschließender Vergleich der generierten Stilbegriffe zeigt: Die neue Methode produziert vor allem beschreibende und funktionale Begriffe („technical“, „playful“, „polished“), während STYLL eher emotionale oder wertende Begriffe wie „sarcastic“, „opinionated“ oder „self-deprecating“ bevorzugt - was wiederum, so die Forscher, die Gefahr von Bedeutungsverzerrungen erhöht.

Unterstütze unsere unabhängige, frei zugängliche Berichterstattung. Jeder Betrag hilft und sichert unsere Zukunft. Jetzt unterstützen:
Banküberweisung
Zusammenfassung
  • Forscherinnen und Forscher der University of Maryland haben ein neues Verfahren entwickelt, mit dem große Sprachmodelle wie LLaMA den Stil eines Beispieltextes übernehmen können, ohne den ursprünglichen Inhalt zu verfälschen.
  • Das Verfahren basiert auf der Registeranalyse, einem linguistischen Modell zur Beschreibung des Sprachstils. Die Methode analysiert messbare sprachliche Merkmale wie Wortarten, Satzlänge und Abstraktionsgrad und generiert daraus präzise Stilbeschreibungen.
  • In Tests mit LLaMA-Modellen übertraf die neue Methode bestehende Verfahren in fast allen Aufgaben, insbesondere bei der Nachahmung von Reddit-Schreibstilen, bei der Umwandlung zwischen Umgangssprache und formellem Stil sowie bei der Vereinfachung medizinischer Fachtexte.
Quellen
Max ist leitender Redakteur bei THE DECODER. Als studierter Philosoph beschäftigt er sich mit dem Bewusstsein, KI und der Frage, ob Maschinen wirklich denken können oder nur so tun als ob.
Community beitreten
Kommt in die DECODER-Community bei Discord,Reddit, Twitter und Co. - wir freuen uns auf euch!