Anzeige
Skip to content

LLM-Textdaten gehen zur Neige: Meta sieht ungelabelte Videos als nächste große Trainingsquelle

Image description
Nano Banana Pro prompted by THE DECODER

Kurz & Knapp

  • Ein einzelnes KI-Modell kann Text, Bilder und Video gleichzeitig von Grund auf lernen, ohne dass sich die Modalitäten gegenseitig schaden.
  • Die bisher übliche Trennung in zwei visuelle Encoder für Bildverständnis und Bildgenerierung ist laut einer Studie von Meta FAIR und der New York University daher unnötig.
  • Vision und Sprache skalieren jedoch fundamental unterschiedlich: Sprachfähigkeiten wachsen im Gleichgewicht zwischen Modellgröße und Datenmenge, visuelle Fähigkeiten benötigen überproportional viele Daten.

Ein Forschungsteam von Meta FAIR und der New York University hat systematisch untersucht, wie sich multimodale KI-Modelle von Grund auf trainieren lassen. Die Ergebnisse stellen mehrere verbreitete Annahmen infrage.

Sprachmodelle haben die Ära der Foundation Models geprägt. Doch Text, so argumentieren die Forscher in ihrem Paper "Beyond Language Modeling", sei letztlich eine verlustbehaftete Komprimierung der Realität. In Anlehnung an Platons Höhlengleichnis formulieren sie: Sprachmodelle hätten gelernt, die Schatten an der Wand zu beschreiben, ohne je die Objekte gesehen zu haben, die diese Schatten werfen. Hinzu komme ein praktisches Problem, denn hochwertige Textdaten seien endlich und näherten sich der Erschöpfung.

Vier Zeilen mit Beispieldaten. Oben ein Textabschnitt, darunter drei Bild-Text-Paare mit Tiermotiven, dann eine Videosequenz mit Navigationsaktionen und numerischen Werten, unten eine Videosequenz mit mehreren Einzelbildern einer Hand, die einen Gegenstand bewegt.
Beispiele der vier Trainingsdatentypen: reiner Text, Bild-Text-Paare, aktionsbedingte Videosequenzen und rohes Video. | Bild: Tong et al.

Die Studie, an der unter anderem mittlerweile ausgeschiedene Yann LeCun beteiligt war, trainiert deshalb ein einzelnes Modell komplett von Null auf. Es kombiniert die übliche Wort-für-Wort-Vorhersage für Sprache mit einem Diffusionsverfahren namens Flow Matching für visuelle Daten. Trainiert wird auf Text, Video, Bild-Text-Paaren und aktionsbedingten Videos. Der entscheidende methodische Punkt: Indem die Forscher nicht auf ein bestehendes Sprachmodell aufbauen, vermeiden sie, dass bereits gelerntes Wissen die Ergebnisse verzerrt.

Schematische Darstellung der Modellarchitektur mit einem autoregressiven Modell, das Next Text Token Prediction und Next Visual State Prediction kombiniert. Darunter fünf farbige Blöcke für die untersuchten Bereiche: Visual Representation, Data, World Model, Architecture und Scaling Behavior.
Oben die Modellarchitektur, die Text- und Bildvorhersage in einem einzigen Modell vereint. Unten die fünf untersuchten Achsen. | Bild: Tong et al.

Ein einziger visueller Encoder genügt für Verstehen und Erzeugen

Bisherige Ansätze wie Janus oder BAGEL verwenden getrennte visuelle Encoder für Bildverständnis und Bildgenerierung. Die Meta-Forscher zeigen laut ihrer Studie, dass diese Trennung unnötig ist.

Anzeige
DEC_D_Incontent-1

Ein sogenannter Representation Autoencoder (RAE) auf Basis des Bildmodells SigLIP 2 übertrifft demnach herkömmliche VAE-Encoder sowohl bei der Bildgenerierung als auch beim visuellen Verstehen. Gleichzeitig bleibt die Sprachleistung auf dem Niveau eines reinen Textmodells.

Fünf Balkendiagramme nebeneinander, die verschiedene Metriken zeigen: DCLM PPL, Notes PPL, DPGBench, GenEval und Avg VQA. SigLIP 2 in Blau erzielt die besten Werte bei Generierung und VQA. Die gestrichelte Linie markiert die reine Text-Baseline. VAE-Encoder wie SD-VAE und FLUX.1 schneiden bei Generierung und Verständnis schlechter ab.
RAE auf Basis von SigLIP 2 übertrifft VAE-basierte Encoder bei Bildgenerierung und visuellem Verständnis, ohne die Sprachleistung zu verschlechtern. | Bild: Tong et al.

Statt zwei getrennter Pfade genügt also ein einzelner Encoder für beide Aufgaben. Das vereinfacht die Architektur erheblich.

Eine verbreitete Annahme lautet, dass Vision und Sprache innerhalb eines Modells zwangsläufig miteinander konkurrieren. Die Studie zeichnet ein anderes Bild.

Reines Video, also ohne Textannotationen, verschlechtert die Sprachfähigkeiten nicht. Auf einem Validierungsdatensatz übertrifft das Modell mit Text und Video sogar die reine Text-Baseline leicht.

Anzeige
DEC_D_Incontent-2

Zwei Liniendiagramme nebeneinander. Links Diffusion Loss, rechts GenEval Score, jeweils aufgetragen gegen die Menge an Text-Token in Milliarden. Vier farbige Linien repräsentieren unterschiedliche Mengen an Bild-Token von 25 bis 100 Milliarden. Gestrichelte Linien zeigen die jeweilige unimodale Baseline. Alle Kurven verbessern sich mit steigender Textmenge.
Mehr Text verbessert die Bildgenerierung: Bei jedem visuellen Token-Budget senkt zusätzlicher Text den Diffusion Loss und steigert den GenEval-Score über die rein visuelle Baseline hinaus. | Bild: Tong et al.

Die geringe Verschlechterung, die bei Bild-Text-Paaren auftritt, führen die Forscher auf den Verteilungsunterschied zwischen normalem Trainingstext und Bildunterschriften zurück. Nicht die visuelle Modalität selbst sei das Problem.

Überraschend sei der Synergieeffekt: 20 Milliarden VQA-Token, also Daten für visuelles Fragenbeantworten, ergänzt um jeweils 80 Milliarden Daten aus Video, Bild-Text-Paaren (MetaCLIP) oder Text, übertreffen jeweils ein Modell, das auf 100 Milliarden reinen VQA-Daten trainiert wurde.

Weltmodellierung entsteht von selbst

Die Forscher testen auch, ob ihr Modell lernen kann, visuelle Zustände vorherzusagen. Dazu soll es auf Basis eines aktuellen Bildes und einer Navigationsanweisung den nächsten visuellen Zustand prognostizieren. Die Aktionen werden dabei direkt als Text codiert, Architekturänderungen sind nicht nötig.

Raster aus zwölf Bildern einer Außenszene mit Gebäuden, aufgeteilt in drei Reihen. Die obere Reihe zeigt vier Kontextbilder. Die mittlere Reihe zeigt vorhergesagte Bilder mit der Tasteneingabe W und der Textanweisung "get out of the shadow!". Die untere Reihe zeigt weitere vorhergesagte Bilder mit den Tasten A und D, wobei sich die Perspektive entsprechend dreht.
Das Modell generiert Bildfolgen auf Basis von Tastatureingaben (W, A, D) oder natürlichsprachlichen Anweisungen wie "get out of the shadow!", ohne solche Eingaben je im Training gesehen zu haben. | Bild: Tong et al.

Das Ergebnis: Die Fähigkeit zur Weltmodellierung entsteht laut der Studie primär aus dem allgemeinen multimodalen Training, nicht aus speziellen Navigationsdaten. Bereits mit einem Prozent aufgabenspezifischer Daten erreicht das Modell konkurrenzfähige Leistung. Das Modell kann sogar auf natürlichsprachliche Anweisungen wie "Get out of the shadow!" reagieren und passende Bildfolgen generieren, obwohl es solche Eingaben nie gesehen hat.

Mixture-of-Experts lernt die Kapazitätsaufteilung selbst

Für die Modellarchitektur untersuchen die Forscher sogenannte Mixture-of-Experts (MoE). Bei diesem Ansatz wird jedes Eingabe-Token nur an eine Teilmenge spezialisierter Netzwerkmodule weitergeleitet, statt das gesamte Modell zu aktivieren. Das spart Rechenleistung bei gleichzeitig höherer Gesamtkapazität.

Bei einem Modell mit 13,5 Milliarden Gesamtparametern, von denen nur 1,5 Milliarden pro Token aktiv sind, übertrifft MoE laut der Studie sowohl dichte Modelle als auch manuell entworfene Separationsstrategien.

Gestapeltes Balkendiagramm mit 16 Balken für die Netzwerkschichten 0 bis 15. Jeder Balken zeigt die Verteilung von 256 Experten in drei Kategorien: Text-Experten in Blau dominieren durchgehend, Multimodal-Experten in Orange und Vision-Experten in Rot nehmen in tieferen Schichten zu.
Das Modell bildet von selbst eine Spezialisierung aus: Frühe Schichten werden von Text-Experten dominiert, in tieferen Schichten wächst der Anteil visueller und multimodaler Experten. | Bild: Tong et al.

Das Modell entwickelt dabei von selbst eine Spezialisierung. Es weist deutlich mehr Experten der Sprache zu als der Vision. Frühe Schichten werden von textspezifischen Experten dominiert, tiefere Schichten enthalten zunehmend visuelle und multimodale Experten.

Auffällig ist, dass Bildverständnis und Bildgenerierung dieselben Experten aktivieren. Die Korrelation liegt bei mindestens 0,90 über alle Schichten. Die Forscher sehen darin eine Bestätigung der "Bitter Lesson" von Rich Sutton: Lernen aus Daten schlage in der Regel menschlich entworfene Lösungen.

Vision benötigt deutlich mehr Daten als Sprache

Beim Training von KI-Modellen stellt sich immer die Frage, wie man ein festes Rechenbudget am besten aufteilt: in ein größeres Modell mit weniger Trainingsdaten oder in ein kleineres Modell mit mehr Daten. Die sogenannten Chinchilla-Gesetze haben für reine Sprachmodelle gezeigt, dass beides ungefähr gleich schnell wachsen sollte.

Die Meta-Forscher berechnen diese Skalierungsgesetze nun erstmals für ein gemeinsames Vision-Sprach-Modell und stoßen auf eine Asymmetrie. Für Sprache bestätigt sich das bekannte Gleichgewicht. Für Vision hingegen verschiebt sich das Optimum stark in Richtung Daten: Visuelle Fähigkeiten profitieren überproportional von mehr Trainingsdaten, während eine Vergrößerung des Modells vergleichsweise wenig bringt.

Acht Diagramme in zwei Reihen. Obere Reihe für Sprache, untere für Vision. Von links nach rechts: IsoFLOP-Kurven mit farbigen Punktwolken, optimale Parameterzahl als Funktion der Rechenleistung, optimale Tokenzahl als Funktion der Rechenleistung, und ein Vergleichsdiagramm. Die Exponenten zeigen, dass Vision mit 0.63 einen deutlich höheren Datenexponenten hat als Sprache mit 0.53.
Die Skalierungsgesetze für Vision und Sprache unterscheiden sich fundamental: Sprache folgt einer nahezu ausgeglichenen Chinchilla-Skalierung, während Vision deutlich mehr Daten benötigt. | Bild: Tong et al.

Je größer das Modell wird, desto weiter klaffen die Datenbedürfnisse auseinander. Ausgehend von einer 1B-Parameter-Basis steigt der relative Bedarf an Visionsdaten gegenüber Sprachdaten laut Studie bei 100B Parametern um das 14-Fache und bei 1T Parametern um das 51-Fache. Sprache wächst in diesem Bereich deutlich genügsamer. In herkömmlichen dichten Modellen, bei denen jeder Parameter bei jedem Rechenschritt aktiv ist, lässt sich dieses Ungleichgewicht kaum auflösen.

Die Mixture-of-Experts-Architektur entschärft laut den Forschern jedoch das Problem. Weil nur ein Bruchteil der Experten pro Token aktiviert wird, kann das Modell insgesamt sehr viele Parameter besitzen, ohne dass die Rechenkosten proportional steigen. Das gibt der Sprache die hohe Parameterkapazität, die sie braucht, während Vision von den großen Datenmengen profitieren kann, die sie benötigt. Laut der Studie halbiert MoE die Skalierungsasymmetrie zwischen beiden Modalitäten.

Die Forscher betonen, dass ihre Studie sich auf das Vortraining beschränkt. Weder Finetuning noch Reinforcement Learning werden tiefergehend untersucht. Dennoch sehen sie in ihren Ergebnissen einen Hinweis darauf, dass die Grenze zwischen multimodalen Modellen und Weltmodellen zunehmend verschwimmen wird. Riesige Mengen an ungelabelten Videos blieben weitgehend ungenutzt, und die Studie zeige, dass sie sich ohne Schaden für die Sprachfähigkeiten einbinden ließen.

KI-News ohne Hype – von Menschen kuratiert

Mit dem THE‑DECODER‑Abo liest du werbefrei und wirst Teil unserer Community: Diskutiere im Kommentarsystem, erhalte unseren wöchentlichen KI‑Newsletter, 6× im Jahr den „KI Radar"‑Frontier‑Newsletter mit den neuesten Entwicklungen aus der Spitze der KI‑Forschung, bis zu 25 % Rabatt auf KI Pro‑Events und Zugriff auf das komplette Archiv der letzten zehn Jahre.

Quelle: Arxiv