"Es ist eine der tiefgreifendsten Illusionen unserer Zeit, dass die meisten Menschen diesen Dingen [großen Sprachmodellen] Verständnis zuschreiben, das sie gar nicht haben", sagt LLM-Hype-Kritiker Gary Marcus im Gespräch mit Schachgroßmeister Garry Kasparov.
Er führt ein Beispiel auf: "Sie können die Regeln des Schachspiels wiedergeben, weil sie Texte erzeugen, die auf anderen Texten basieren. Aber wenn es darum geht, das Spiel tatsächlich zu spielen, fehlt ihnen ein internes Modell davon, was vor sich geht."
Für Marcus ist diese Diskrepanz zwischen performativer Kompetenz und fehlendem semantischen Verständnis der Kern der aktuellen KI-Verblendung. Die vermeintliche Intelligenz großer Sprachmodelle sei lediglich eine statistisch fundierte Imitation – eine "Illusion von Intelligenz", erzeugt durch extreme Datenmengen und Musterabgleich.