Anzeige
Skip to content

Meta-Forscher denkt die Transformer-Architektur für Sprachmodelle neu

Image description
Sora prompted by THE DECODER

Kurz & Knapp

  • Ein Meta-Forscher hat mit dem "Free Transformer" eine KI-Architektur entwickelt, die vorab strukturierte Entscheidungen trifft, bevor sie Text generiert, was vor allem bei Programmier- und Mathematik-Aufgaben zu besseren Ergebnissen führen soll.
  • Das System erweitert das Standard-Transformer-Modell um eine zusätzliche Schicht, die versteckte Zustände gezielt steuert und dabei den Rechenaufwand nur minimal erhöht; ein Kontrollmechanismus verhindert Missbrauch durch zu viel Information in den versteckten Variablen.
  • In Tests mit Modellen von 1,5 und 8 Milliarden Parametern zeigte der Free Transformer bei Code- und Mathematik-Aufgaben bis zu 55 Prozent bessere Ergebnisse gegenüber Standard-Transformern, während für Multi-Choice-Aufgaben nur moderate Verbesserungen gemessen wurden.

Ein Meta-Forscher hat eine neue KI-Architektur entwickelt, die vorab Entscheidungen treffen kann, in welche Richtung der generierte Text gehen soll. Der sogenannte Free Transformer soll laut Forschungspapier besonders bei Programmier- und Mathematikaufgaben besser abschneiden.

François Fleuret von Meta erklärt das Problem anhand eines Generators für Filmkritiken. Ein Standard-Transformer schreibt Wort für Wort und merkt dabei allmählich, ob die Kritik positiv oder negativ wird. Er trifft diese Entscheidung nicht bewusst, sondern sie ergibt sich aus den gewählten Token.

Das führt laut der Studie zu mehreren Problemen. Die Berechnungen werden unnötig kompliziert, weil das Modell ständig raten muss, in welche Richtung der Text geht. Außerdem kann es durch einzelne falsche Wörter vom ursprünglichen Kurs abkommen.

Der Free Transformer löst dieses Problem, indem er vorab eine Entscheidung trifft. Im Filmkritik-Beispiel würde er zuerst festlegen, ob die Kritik positiv oder negativ werden soll, und dann entsprechende Token generieren.

Anzeige
DEC_D_Incontent-1

Minimaler Aufwand für zusätzliche Funktionen

Die technische Umsetzung erfolgt durch eine zusätzliche Schicht in der Mitte des Transformer-Modells. Diese Schicht erhält während der Textgenerierung zufällige Eingabewerte und wandelt sie in strukturierte Entscheidungen um. Ein separater Encoder-Teil lernt während des Trainings, welche versteckten Entscheidungen zu welchen Texten passen.

Der Encoder funktioniert anders als der normale Textgenerator. Während der Standard-Transformer nur die bisherigen Wörter sehen kann, betrachtet der Encoder den kompletten Text auf einmal. So kann er globale Eigenschaften des Texts erkennen und entsprechende versteckte Entscheidungen treffen. Ein Umwandlungsmechanismus sorgt dafür, dass diese Entscheidungen in eine Form gebracht werden, die der Decoder verstehen kann.

Drei Architekturvarianten: (a) Standard-Decoder; (b) VAE mit separatem Encoder für Zufallszustand Z; (c) Free Transformer injiziert Z in Mittelschicht
Im Vergleich zu einem Standard-Decoder und einem Conditional VAE reduziert der Free Transformer den Encoder-Overhead, indem er den Zufallszustand Z gezielt in die mittlere Schicht einspeist. | Bild: Meta

Durch geschickte Architekturaufteilung bleibt der zusätzliche Rechenaufwand gering. Der Encoder nutzt die ersten Verarbeitungsschritte des Standard-Modells mit und benötigt nur einen zusätzlichen Baustein. Laut der Studie erhöht sich dadurch der Rechenaufwand um lediglich etwa drei Prozent.

Das System kann aus mehr als 65 000 verschiedenen versteckten Zuständen wählen. Ein Kontrollverfahren sorgt dafür, dass nicht zu viel Information in den versteckten Entscheidungen gespeichert wird. Ohne diese Kontrolle könnte der Encoder "schummeln" und einfach den kompletten zu schreibenden Text im Voraus festlegen. Das würde das System beim praktischen Einsatz nutzlos machen.

Anzeige
DEC_D_Incontent-2

Vier Panels mit ASCII-Sequenzen für κ = 1/64, 1/8, 1 und 8 Bits, die von repetitiven Mustern zu variantenreichen Texten übergehen
Das Experiment zeigt die Funktionsweise versteckter Entscheidungen. Der κ-Wert steuert, wie viel Information das Modell in den versteckten Variablen speichern darf. Bei niedrigen Werten verhält sich das Modell wie ein Standard-Transformer, bei mittleren Werten kodiert es Position und Rausch-Muster, bei zu hohen Werten kollabiert die Performance. Grüne Boxen teilen sich dieselben versteckten Entscheidungen, blaue verwenden jeweils neue. | Bild: Meta

Deutliche Verbesserungen bei komplexen Aufgaben

Der Forscher testete seine Architektur mit Modellen von 1,5 und 8 Milliarden Parametern auf 16 Standard-Benchmarks. Besonders bei Aufgaben, die logisches Denken erfordern, zeigte sich eine deutliche Verbesserung.

Tabelle: Vergleich 1,5B-Modelle (47B Tokens), Free Transformer (+3,6 % Aufwand) vs. Baseline mit prozentualen Leistungsänderungen.
Bei 1,5-Milliarden-Parameter-Modellen auf 47 Mrd. Tokens liefert der Free Transformer bis zu 55 Prozent bessere Code- und Mathematikergebnisse, während Multi-Choice-Aufgaben nur moderate Veränderungen zeigen. | Bild: Meta

Bei der Code-Generierung erreichte das kleinere Modell mit weniger Trainingsdaten 44 Prozent bessere Ergebnisse als die Vergleichsversion. Bei Mathematik-Aufgaben verbesserte es sich um bis zu 30 Prozent. Das größere Modell, das mit deutlich mehr Daten trainiert wurde, zeigte geringere aber immer noch messbare Verbesserungen von 11 Prozent bei Code-Generation und 5 Prozent bei Wissensfragen.

Tabelle: Vergleich 8B-Modelle (1T Tokens), Free Transformer (+3,1 % Aufwand) vs. Baseline mit finale und durchschnittliche Verbesserungen.
Für 8-Milliarden-Parameter-Modelle auf 1 Billion Tokens verbessert der Free Transformer die Code-Generierung nur noch um bis zu 11 Prozent. | Bild: Meta

Fleuret führt die grundsätzlichen Verbesserungen darauf zurück, dass die versteckten Entscheidungen dem Modell helfen, komplexe Probleme strukturierter anzugehen. Anstatt jeden Schritt neu zu durchdenken, kann es eine übergeordnete Strategie festlegen und dann konsequent verfolgen.

Noch Raum für Optimierungen

Die Studie räumt ein, dass die Trainingsverfahren noch nicht optimal an die neue Architektur angepasst wurden. Der Forscher verwendete dieselben Einstellungen wie für die Standard-Modelle. Eine speziell angepasste Trainingsmethode könnte die Verbesserungen noch verstärken.

Auch die Skalierung auf größere Modelle bleibt unerforscht. Die Experimente beschränkten sich auf relativ kleine Modelle im Vergleich zu aktuellen Sprachmodellen mit hunderten Milliarden Parametern.

Fleuret sieht Potenzial für die Kombination seines Ansatzes mit anderen KI-Techniken. Während sein System versteckte Entscheidungen im Hintergrund trifft, könnten andere Verfahren zusätzlich sichtbare Denkschritte im generierten Text zeigen.

Source: Arxiv