Skip to content

Studie liefert Hinweise auf Verständnis in großen Sprachmodellen

Image description
Midjourney prompted by THE DECODER

Kurz & Knapp

  • Forschende des MIT haben Hinweise darauf gefunden, dass große Sprachmodelle (LLMs) mit zunehmender Sprachkompetenz möglicherweise ein eigenes Verständnis der Welt entwickeln, anstatt nur oberflächliche Statistiken zusammenzusetzen.
  • In einer Studie trainierten sie ein Sprachmodell mit synthetischen Programmen zur Navigation in 2D-Gitterwelten. Obwohl während des Trainings nur Ein- und Ausgabebeispiele beobachtet wurden, konnte ein Prüfklassifikator zunehmend genaue Darstellungen der verborgenen Zustände aus den LM-Zuständen extrahieren, was auf eine emergente Interpretationsfähigkeit des LM hindeutet.
  • Die Ergebnisse stimmen mit einem Experiment überein, bei dem ein mit Othello-Zügen trainiertes GPT-Modell Hinweise auf ein internes "Weltmodell" des Spiels zeigte. Obwohl die Experimente in vereinfachten Domänen durchgeführt wurden, bieten sie eine vielversprechende Richtung für das Verständnis der Fähigkeiten von LLMs bei der Erfassung von Bedeutung.

Eine neue Studie von Forschenden des MIT deutet darauf hin, dass große Sprachmodelle (LLMs) mit zunehmender Sprachkompetenz ein eigenes Verständnis der Welt entwickeln könnten, anstatt nur oberflächliche Statistiken zusammenzusetzen.

Forschende des Massachusetts Institute of Technology (MIT) haben Belege dafür gefunden, dass große Sprachmodelle (LLMs) mit der Verbesserung ihrer Sprachfähigkeiten möglicherweise ein eigenes Verständnis der Welt entwickeln, anstatt lediglich oberflächliche Statistiken zu kombinieren. Die Studie trägt zur Debatte bei, ob LLMs nur "stochastische Papageien" sind oder sinnvolle interne Repräsentationen lernen können.

Für ihre Untersuchung trainierten die Forschenden ein Sprachmodell mit synthetischen Programmen zur Navigation in 2D-Gitterweltumgebungen. Obwohl während des Trainings nur Ein- und Ausgabebeispiele, nicht aber Zwischenzustände beobachtet wurden, konnte ein Prüfklassifikator zunehmend genaue Darstellungen dieser verborgenen Zustände aus den verborgenen Zuständen des LM extrahieren. Dies deutet auf eine emergente Fähigkeit des LM hin, Programme in einem formalen Sinne zu interpretieren.

Bild: Jin, Rinard et al.

Die Forschenden entwickelten zudem die "semantischen Prüfinterventionen", um zu unterscheiden, was vom LM dargestellt und was vom Prüfklassifikator gelernt wird. Durch Eingriffe in die Semantik bei gleichzeitiger Bewahrung der Syntax zeigten sie, dass die LM-Zustände eher auf die ursprüngliche Semantik abgestimmt sind als nur syntaktische Informationen zu kodieren.

Auch OthelloGPT zeigte sinnvolle interne Repräsentationen

Diese Ergebnisse stimmen mit einem separaten Experiment überein, bei dem ein GPT-Modell mit Othello-Zügen trainiert wurde. Hier fanden die Forschenden Hinweise auf ein internes "Weltmodell" des Spiels innerhalb der Modellrepräsentationen. Eine Änderung dieses internen Modells beeinflusste die Vorhersagen des Modells, was nahelegt, dass es diese gelernte Repräsentation zur Entscheidungsfindung nutzte.

Obwohl diese Experimente in vereinfachten Domänen durchgeführt wurden, bieten sie eine vielversprechende Richtung für das Verständnis der Fähigkeiten und Grenzen von LLMs bei der Erfassung von Bedeutung. Martin Rinard, ein leitender Autor der MIT-Studie, merkt an: "Diese Forschung zielt direkt auf eine zentrale Frage der modernen künstlichen Intelligenz ab: Sind die überraschenden Fähigkeiten großer Sprachmodelle einfach auf statistische Korrelationen in großem Maßstab zurückzuführen, oder entwickeln große Sprachmodelle ein sinnvolles Verständnis der Realität, mit der sie arbeiten sollen?"

Source: MIT News Arxiv

Verpassen Sie keine
aktuellen KI‑Einblicke.

  • Unabhängiger Journalismus, der Sie auf dem Laufenden hält.
  • Zugang zum Magazinarchiv und zu den Community‑Kommentaren.
  • Die neuesten KI‑Infos von The Decoder – klar und auf den Punkt.
The Decoder abonnieren