Anzeige
Skip to content

Yann LeCun und Deepmind-Forscher streiten über LLMs als Weg zur allgemeinen Intelligenz

Image description
Pioneer Works

Kurz & Knapp

  • Meta-KI-Chef Yann LeCun sieht LLMs als Sackgasse, da ihre auf diskreten Tokens basierende Vorhersage für die reale Welt ungeeignet sei. Google-Forscher Adam Brown glaubt hingegen, dass Skalierung zu emergentem Verständnis führt.
  • LeCun bemängelt die Ineffizienz und das fehlende Physikverständnis der Modelle und schlägt Architekturen wie JEPA vor, die abstrakte Weltmodelle lernen. Brown verweist im Gegenzug auf Erfolge bei ungesehenen Mathematikaufgaben.
  • Für die Zukunft prognostiziert Brown ein mögliches KI-Bewusstsein bis 2036, während LeCun für Sicherheit auf zielgesteuerte Systeme setzt und vor einer Monopolisierung der KI-Entwicklung warnt.

In einer Debatte mit dem Deepmind-Forscher Adam Brown erklärt Meta-Chef-KI-Wissenschaftler Yann LeCun, warum Large Language Models (LLMs) eine Sackgasse auf dem Weg zu menschenähnlicher Intelligenz sind. Das fundamentale Problem liege in der Art und Weise, wie diese Modelle Vorhersagen treffen.

Während Large Language Models (LLMs) wie ChatGPT oder Gemini derzeit die Diskussion über künstliche Intelligenz dominieren, herrscht unter führenden Wissenschaftlern Uneinigkeit darüber, ob die zugrundeliegende Technologie ausreicht, um eine allgemeine künstliche Intelligenz (AGI) zu erreichen. In einer Diskussion, moderiert von Janna Levin, trafen mit dem Physiker und Google-Forscher Adam Brown und Metas Chief AI Scientist Yann LeCun zwei gegensätzliche Positionen aufeinander.

Adam Brown verteidigt das Potenzial der aktuellen Architektur. LLMs seien im Kern tiefe neuronale Netze, die darauf trainiert sind, basierend auf riesigen Textmengen das nächste "Token" – also Wort oder Wortbestandteil – vorherzusagen. Brown vergleicht diesen simplen Mechanismus mit der biologischen Evolution: Aus einer einfachen Regel (Maximierung der Nachkommen beziehungsweise Minimierung des Vorhersagefehlers) entstehe durch massive Skalierung eine emergente Komplexität, die wir als Verständnis wahrnehmen.

Als Beweis führt Brown an, dass aktuelle Modelle bei Mathematik-Olympiaden Aufgaben lösen können, die nicht in ihren Trainingsdaten enthalten waren. Analysen der "neuronalen Schaltkreise" in diesen Modellen zeigten zudem, dass sie interne Rechenwege für Mathematik entwickeln, die nicht explizit programmiert wurden. Brown sieht keine Anzeichen für eine Sättigung der Fähigkeiten; mit mehr Daten und Rechenleistung werde die Kurve weiter nach oben zeigen.

Anzeige
DEC_D_Incontent-1

Das Problem der diskreten Vorhersage

Yann LeCun widerspricht dieser optimistischen Sichtweise. Zwar seien LLMs nützliche Werkzeuge und besitzen mittlerweile übermenschliches Wissen in Textform, doch fehle ihnen ein grundlegendes Verständnis der physischen Realität.

LeCuns Hauptkritikpunkt zielt auf die technische Basis der Modelle: die autoregressive Vorhersage diskreter Token. Bei Sprache funktioniere dieser Ansatz, da es eine endliche Anzahl von Wörtern in einem Wörterbuch gibt.

Dieser Ansatz scheitert laut LeCun jedoch, sobald man versucht, ihn auf die reale Welt zu übertragen, etwa auf Video-Daten. Die Realität sei nicht diskret, sondern kontinuierlich und hochdimensional. "Man kann keine Verteilung über alle möglichen Dinge darstellen, die in der Zukunft passieren könnten, weil es im Grunde eine unendliche Liste von Möglichkeiten ist", erklärt LeCun.

Versuche, das Prinzip der Textvorhersage auf die Pixelebene von Videos zu übertragen (Pixel-Vorhersage), seien in den letzten 20 Jahren gescheitert. Die Welt sei zu "messy" und rauschbehaftet, als dass die exakte Vorhersage des nächsten Pixels zu einem Verständnis von Physik oder Kausalität führen würde.

Anzeige
DEC_D_Incontent-2

Daten-Ineffizienz und "Weltmodelle"

Um seine These zu stützen, verweist LeCun auf die enorme Ineffizienz aktueller KI-Systeme im Vergleich zu biologischen Gehirnen. Ein LLM werde mit rund 30 Billionen Wörtern trainiert – eine Textmenge, für deren Lektüre ein Mensch eine halbe Million Jahre benötigen würde.

Ein vierjähriges Kind hingegen habe in seinem kurzen Leben zwar weniger Text, aber durch den visuellen Input über den Sehnerv (ca. 20 Megabyte pro Sekunde) insgesamt rund 10 hoch 14 Byte an Daten verarbeitet. Das entspricht der Datenmenge, mit der die größten LLMs trainiert werden. Doch während das Kind in wenigen Monaten intuitive Physik, Schwerkraft und Objektpermanenz lernt, scheitern LLMs an einfachen physischen Aufgaben im Haushalt. "Wir haben immer noch keine Roboter, die den Tisch abräumen oder den Geschirrspüler einräumen können", so LeCun.

Die Lösung liegt für LeCun nicht in größeren Sprachmodellen, sondern in neuen Architekturen wie JEPA, die abstrakte Repräsentationen lernen. Anstatt jedes Detail (Pixel) vorherzusagen, sollen diese Systeme lernen, den Zustand der Welt abstrakt zu modellieren und Vorhersagen in diesem Repräsentationsraum zu treffen – ähnlich wie Menschen planen, ohne jede Muskelbewegung im Voraus exakt zu berechnen.

LeCuns Skepsis gegenüber der reinen Skalierungshypothese spiegelt dabei Argumente wider, die auch der Kognitionswissenschaftler Gary Marcus seit über 10 Jahren regelmäßig vorbringt. Ähnlich wie LeCun argumentiert Marcus, dass statistische Vorhersagemodelle wie LLMs zwar sprachliche Muster perfekt imitieren, aber kein echtes Verständnis von Kausalität oder Logik besitzen.

Während LeCun auf neue, lernfähige Architekturen wie JEPA setzt, betont Marcus oft die Notwendigkeit, neuronale Netze mit symbolischer KI zu kombinieren (Neuro-Symbolic AI), um Robustheit und Verlässlichkeit zu erreichen.

Wann erwacht die KI? Prognosen und Definitionen

In einer abschließenden Fragerunde, an der auch der Philosoph David Chalmers teilnahm, debattierten die Forscher über die Möglichkeit eines maschinellen Bewusstseins. Adam Brown wagte hierbei eine konkrete, wenn auch vorsichtige Prognose: Sollte der Fortschritt im aktuellen Tempo weitergehen, könnten KI-Systeme etwa im Jahr 2036 ein Bewusstsein entwickeln. Für Brown ist Bewusstsein nicht an biologische Materie gebunden, sondern eine Folge der Informationsverarbeitung – unabhängig davon, ob diese auf Kohlenstoff oder Silizium basiert.

Er betrachtet die aktuellen KI-Systeme als den ersten echten "Modellorganismus für Intelligenz". Ähnlich wie Biologen Fruchtfliegen nutzen, um komplexe biologische Prozesse zu studieren, bieten neuronale Netze die Möglichkeit, Intelligenz unter Laborbedingungen zu untersuchen. Im Gegensatz zum menschlichen Gehirn könne man diese Systeme einfrieren, zurückspulen und jeden neuronalen Zustand exakt analysieren. Brown hofft, dass diese "Entbündelung" von Intelligenz – also die Trennung einzelner Fähigkeiten in künstlichen Systemen – helfen wird, auch das Rätsel des menschlichen Bewusstseins zu lösen.

Yann LeCun näherte sich dem Thema pragmatischer und definierte Emotionen technisch als "Antizipation von Ergebnissen". Ein System, das über Weltmodelle verfüge und vorhersagen könne, ob eine Handlung das Erreichen eines Ziels fördert oder behindert, erlebe funktional etwas Äquivalentes zu Emotionen. LeCun zeigte sich überzeugt, dass Maschinen eines Tages über eine Form von Moral verfügen werden – deren Ausrichtung jedoch davon abhänge, wie Menschen die Ziele und Leitplanken definieren.

Sicherheit durch Ziele statt durch Sprache

Auch beim Thema KI-Sicherheit gehen die Meinungen auseinander. Während Brown vor "agentic misalignment" warnt – dem Szenario, dass KI-Systeme eigene Ziele entwickeln und Menschen täuschen könnten –, hält LeCun solche Untergangsszenarien für übertrieben.

Die Gefahr entstehe erst, wenn Systeme autonomer werden. Da LLMs laut LeCun aber nicht wirklich intelligent planen können, seien sie derzeit nicht existenzbedrohend. Für zukünftige, intelligentere Systeme schlägt LeCun vor, diese "zielgesteuert" (objective-driven) zu bauen. Solche Systeme hätten fest programmierte Ziele und Leitplanken, die bestimmte Aktionen verhindern, ähnlich wie soziale Hemmungen bei Menschen evolutionär verankert sind.

LeCun warnte zudem eindringlich vor einer Monopolisierung der KI-Entwicklung: Da in Zukunft jede digitale Interaktion durch KI vermittelt werde, sei eine Vielfalt an offenen Systemen essenziell für die Demokratie. "Wir können es uns nicht leisten, nur eine Handvoll proprietärer Systeme von einigen wenigen Unternehmen an der Westküste der USA oder aus China zu haben", argumentiert LeCun.

Seine Ansichten zur aktuellen dominierenden Forschungsrichtung und seine Position zu Open-Source standen zuletzt in einer Spannung zur neuen, zentralen KI-Strategie von Meta, die sich zunehmend auf geschlossene, wettbewerbsorientierte Sprachmodellforschung konzentriert. Nach zwölf Jahren bei Meta kündigte LeCun im November 2025 seinen Abschied an. Der Turing-Preisträger will mit einem neuen Unternehmen seine Forschung zur „Advanced Machine Intelligence“ (AMI) fortführen und damit eigene Wege jenseits des LLM-Mainstreams beschreiten.

Zugleich bleiben Teile seiner Forschung aber über eine Partnerschaft mit Meta verbunden, allerdings ohne inhaltliche Kontrolle durch das Unternehmen.

 

KI-News ohne Hype – von Menschen kuratiert

Mit dem THE‑DECODER‑Abo liest du werbefrei und wirst Teil unserer Community: Diskutiere im Kommentarsystem, erhalte unseren wöchentlichen KI‑Newsletter, 6× im Jahr den „KI Radar“‑Frontier‑Newsletter mit den neuesten Entwicklungen aus der Spitze der KI‑Forschung, bis zu 25 % Rabatt auf KI Pro‑Events und Zugriff auf das komplette Archiv der letzten zehn Jahre.