Inhalt
summary Zusammenfassung

Sind emergente Fähigkeiten in großen Sprachmodellen wie GPT-4 nur eine Illusion? Eine neue Studie zeigt: Es kommt darauf an, wie man misst.

Das Auftreten emergenter Fähigkeiten, also (vermeintlich) plötzlich, fast wundersam auftretender Eigenschaften in großen KI-Netzwerken, gilt als gesichert. Es ist ein Grund für und gegen die weitere Skalierung großer Sprachmodelle: OpenAIs GPT-3 konnte ab einer bestimmten Anzahl von Parametern einfache mathematische Aufgaben lösen, und ein Google-Forscher zählte nicht weniger als 137 emergente Fähigkeiten, die sich beispielsweise im NLP-Benchmark BIG-Bench zeigten.

Im Allgemeinen werden emergente Fähigkeiten als solche definiert, die in Modellen ab einer bestimmten Größe sprunghaft und in kleineren Modellen nicht auftreten. Das Auftreten solcher Sprünge hat zu zahlreichen Forschungsarbeiten geführt, die sich mit dem Ursprung solcher Fähigkeiten und vor allem mit ihrer Vorhersagbarkeit befassen. Denn in der Alignment-Forschung wird das sprunghafte und unvorhersehbare Auftreten von KI-Fähigkeiten als Warnsignal dafür gesehen, dass hochskalierte KI-Netzwerke eines Tages ohne Vorwarnung unerwünschte und gefährliche Fähigkeiten entwickeln.

In einer neuen Forschungsarbeit zeigen Forschende der Stanford University nun, dass Modelle wie GPT-3 zwar rudimentäre mathematische Fähigkeiten entwickeln, dass es aber von der Art der Messung abhängt, ob dies sprunghaft geschieht oder nicht.

Anzeige
Anzeige

Emergente Fähigkeiten sind ein Ergebnis einer bestimmten Metrik

"Wir stellen die Behauptung in Frage, dass LLMs über emergente Fähigkeiten verfügen, worunter wir insbesondere abrupte und unvorhersehbare Änderungen in den Modellergebnissen als Funktion der Modellgröße für bestimmte Aufgaben verstehen."

Normalerweise wird die Fähigkeit als Genauigkeit gemessen, d.h. der Anteil der richtigen Vorhersagen an der Gesamtzahl der Vorhersagen. Diese Messung ist nicht linear, und Änderungen in der Genauigkeit werden als Sprünge sichtbar, so das Team.

Je nach Messung zeigt sich eine emergente Fähigkeit oder nicht. Das Team bezeichnet sie daher als Illusion. | Bild: Schaeffer et al.

"Unsere alternative Erklärung ist, dass die emergenten Fähigkeiten Illusionen sind, die hauptsächlich darauf zurückzuführen sind, dass das Forschungsteam eine Metrik gewählt hat, die die Fehlerraten pro Token nichtlinear oder diskontinuierlich verzerrt, und dass es zum Teil zu wenige Testdaten hat, um die Leistung kleinerer Modelle genau zu schätzen (wodurch kleinere Modelle völlig unfähig erscheinen, die Aufgabe zu erfüllen), und zum Teil zu wenige große Modelle evaluiert hat", heißt es in der Arbeit.

Verwendet man stattdessen eine lineare Messmethode, wie die Token Edit Distance, eine Metrik, die die minimale Anzahl einzelner Tokenänderungen (Einfügungen, Löschungen oder Ersetzungen) berechnet, die notwendig sind, um eine Tokensequenz in eine andere umzuwandeln, ist kein Sprung mehr sichtbar - stattdessen ist eine "glatte, kontinuierliche und vorhersagbare" Verbesserung mit steigender Anzahl von Parametern zu beobachten.

Der Effekt zeigt sich auch in den Mathematikfähigkeiten von GPT-3. | Bild: Schaeffer et al.

Das Team zeigt in seiner Arbeit, dass die emergenten Fähigkeiten von GPT-3 und anderen Modellen, zum Beispiel in BIG-Bench, auf solche nichtlinearen Messungen zurückgeführt werden können und dass bei einer linearen Messung keine drastischen Sprünge erkennbar sind. Darüber hinaus reproduzieren die Forschenden diesen Effekt mit Computer-Vision-Modellen, in denen bisher keine emergenten Fähigkeiten gemessen wurden.

Empfehlung

Emergente Fähigkeiten sind "wahrscheinlich eine Illusion"

"Die wichtigste Schlussfolgerung ist, dass Forschende für eine bestimmte Aufgabe und eine bestimmte Modellfamilie eine Metrik wählen können, die eine emergente Fähigkeit erzeugt, oder eine Metrik wählen können, die eine emergente Fähigkeit unterdrückt", so das Team. "Folglich können emergente Fähigkeiten das Ergebnis von Entscheidungen der Forschenden sein und nicht eine grundlegende Eigenschaft der Modellfamilie für eine bestimmte Aufgabe."

Das Team betont jedoch, dass diese Arbeit nicht so interpretiert werden sollte, dass große Sprachmodelle wie GPT-4 keine emergenten Fähigkeiten haben können. "Unsere Botschaft ist vielmehr, dass die früher behaupteten emergenten Fähigkeiten wahrscheinlich eine Illusion sind, die durch die Analyse der Forschenden hervorgerufen wurde".

Für die Alignment-Forschung könnte diese Arbeit eine gute Nachricht sein, da sie die Vorhersagbarkeit von Fähigkeiten in großen Sprachmodellen zu belegen scheint. Auch OpenAI hat in einem Bericht über GPT-4 gezeigt, dass es die Leistung von GPT-4 in vielen Benchmarks genau vorhersagen kann.

Da das Team jedoch die Möglichkeit des Auftretens emergenter Fähigkeiten nicht ausschließt, stellt sich die Frage, ob solche Fähigkeiten bereits existieren. Ein Kandidat könnte das "Few-Shot-Learning" oder "In-Context-Learning" sein, dass das Team in dieser Arbeit nicht untersucht. Diese Fähigkeit wurde erstmals bei GPT-3 im Detail nachgewiesen und bildet die Grundlage für das heute so verbreitete Prompt-Engineering.

Anzeige
Community beitreten
Kommt in die DECODER-Community bei Discord,Reddit, Twitter und Co. - wir freuen uns auf euch!
Anzeige
Community beitreten
Kommt in die DECODER-Community bei Discord,Reddit, Twitter und Co. - wir freuen uns auf euch!
Unterstütze unsere unabhängige, frei zugängliche Berichterstattung. Jeder Betrag hilft und sichert unsere Zukunft. Jetzt unterstützen:
Banküberweisung
Zusammenfassung
  • Große Sprachmodelle wie GPT-4 zeigen so genannte emergente Fähigkeiten, also Fähigkeiten, die erst ab einer bestimmten Netzwerkgröße auftreten - oder vielleicht doch nicht?
  • Eine neue Forschungsarbeit zeigt, dass bisher bekannte emergente Fähigkeiten eher ein Produkt der verwendeten Metrik sind - mit der richtigen Methode zeigt sich statt eines spontanen Leistungssprungs ein gleichmäßiger Anstieg.
  • Das Team vermutet daher, dass alle bisher gefundenen emergenten Fähigkeiten eine Illusion sind.
Quellen
Max ist leitender Redakteur bei THE DECODER. Als studierter Philosoph beschäftigt er sich mit dem Bewusstsein, KI und der Frage, ob Maschinen wirklich denken können oder nur so tun als ob.
Community beitreten
Kommt in die DECODER-Community bei Discord,Reddit, Twitter und Co. - wir freuen uns auf euch!