Laut KI-Forscher François Chollet ist das Paradigma, Intelligenz durch immer größere Modelle zu erzeugen, gescheitert. Er skizziert eine neue Ära, in der KI-Systeme lernen, sich an neue Probleme anzupassen und wie menschliche Programmierer eigene Lösungen entwickeln.
In einem Vortrag erklärt der KI-Forscher François Chollet das dominierende Paradigma der letzten Jahre für beendet. Die Annahme, dass künstliche allgemeine Intelligenz (AGI) durch das bloße Skalieren von Modellen und Datenmengen entstehe, habe sich als falsch erwiesen. Stattdessen sei die KI-Forschung in eine neue Phase eingetreten, die sich auf Anpassungsfähigkeit zur Laufzeit konzentriert.
Chollet zufolge basiert der Aufstieg des Deep Learning in den 2010er-Jahren auf den exponentiell fallenden Kosten für Rechenleistung. Dies führe zur Dominanz von großen Sprachmodellen und der Überzeugung, dass immer mehr Skalierung unweigerlich zu AGI führen würde. "Die Community war besessen von der Idee, dass allgemeine Intelligenz spontan entstehen würde, wenn man mehr und mehr Daten in größere und größere Modelle stopft", so Chollet.
Das Problem sei jedoch eine grundlegende Verwechslung: Man habe statische, memorisierte Fähigkeiten mit fluider, allgemeiner Intelligenz verwechselt – der Fähigkeit, ein nie zuvor gesehenes Problem spontan zu verstehen. Als Beweis führt er seinen 2019 veröffentlichten Benchmark "Abstraction and Reasoning Corpus" (ARC) an. Trotz einer 50.000-fachen Skalierung von KI-Modellen wie GPT-4.5 sei die Leistung auf ARC von 0 % auf nur etwa 10 % gestiegen, während Menschen über 95 % erreichen. Für Chollet ist dies der endgültige Beweis, dass "fluide Intelligenz nicht aus der Skalierung des Pre-Trainings entsteht".
Von statischen Modellen zur "Test-Time Adaptation"
In seiner Erzählung markiert das Jahr 2024 einen Wendepunkt. Die Forschung wendet sich einem neuen Muster zu: der "Test-Time Adaptation" (TTA). Dabei handelt es sich laut Chollet um Modelle, die ihren eigenen Zustand zur Inferenzzeit ändern können, um sich an neue Situationen anzupassen. Techniken wie Programmsynthese oder "Chain-of-Thought Synthesis" ermöglichen es dem Modell, sich für eine anstehende Aufgabe selbst neu zu programmieren.
Mit dem Aufkommen von TTA-Methoden werden plötzlich signifikante Fortschritte auf dem ARC-Benchmark erzielt. Chollet erwähnt ein von OpenAI auf ARC spezialisiertes 03-Modell, das erstmals menschliche Leistung auf diesem Benchmark zeige. "Wir sind jetzt voll in der Ära der Test-Time Adaptation", so Chollet.
Um die Bedeutung dieses Wandels zu untermauern, teilt Chollet seine Definition von Intelligenz. Er bezieht sich auf zwei klassische Sichtweisen: Zum einen die von Marvin Minsky geprägte Sicht, nach der Intelligenz darin besteht, Maschinen zu bauen, die Aufgaben lösen können, wie sie auch von Menschen erledigt werden – ein Ansatz, der stark auf Automatisierung und wirtschaftlichen Nutzen fokussiert ist. Zum anderen verweist er auf John McCarthy, der Intelligenz als die Fähigkeit beschreibt, mit Problemen umzugehen, auf die man nicht vorbereitet wurde – also der Umgang mit Neuheit.
Chollet grenzt sich deutlich von der Minsky-Sicht ab und schließt sich McCarthys Perspektive an. Für ihn besteht Intelligenz nicht darin, bekannte Aufgaben effizient zu bearbeiten, sondern darin, mit völlig neuen Situationen umgehen zu können. Er unterscheidet daher scharf zwischen der Fähigkeit, bekannte Aufgaben zu lösen (Skill), und der Fähigkeit, neue Probleme zu bewältigen (Intelligenz). "Intelligenz ist ein Prozess, und Fähigkeit ist das Ergebnis dieses Prozesses", erklärt er.
Zur Veranschaulichung nutzt Chollet eine Analogie: Eine Fähigkeit ist wie ein vorhandenes Straßennetz, das Reisen zwischen vorgegebenen Punkten ermöglicht. Intelligenz hingegen ist wie eine Straßenbaufirma, die neue Straßen an bisher unerreichte Orte bauen kann, sobald sich die Anforderungen ändern. Wahre Intelligenz zeigt sich für ihn in der Schaffung neuer Lösungen und Wege, nicht in der reinen Nutzung bestehender Strukturen.
ARC-Benchmarks als Wegweiser für die Forschung
Chollets ARC-Benchmark-Reihe soll als Werkzeug dienen, um die Forschung auf die entscheidenden ungelösten Probleme zu lenken. Während ARC-1 die Grenzen der Skalierung aufzeigte, testet die neuere Version ARC-2 gezielt "compositional generalization". Damit ist die Fähigkeit gemeint, beim Lösen neuer Aufgaben bekannte Wissensbausteine flexibel und systematisch zu neuen Lösungen zu kombinieren – ähnlich wie Menschen aus bereits gelernten Konzepten spontan komplexe neue Ideen zusammensetzen.
Laut Chollet erreichen Basismodelle wie GPT-4.5 und Lama 4 auf ARC-2 weiterhin 0 %. Selbst TTA-Systeme wie das 03-Modell erzielen nur 1-2 % und liegen damit weit unter menschlichem Niveau. Für 2026 kündigt er ARC-3 an, das in interaktiven Umgebungen die "Agency" eines Modells bewerten soll – also die Fähigkeit, autonom Ziele zu erkennen und zu verfolgen.
Zwei Arten der Abstraktion
Die theoretische Grundlage für den nächsten Schritt in der KI-Entwicklung sieht Chollet in der Verbindung zweier Arten von Abstraktion: Die erste Art beschreibt er als eine Form der Mustererkennung, bei der Ähnlichkeiten zwischen Beispielen über messbare Ähnlichkeiten erkannt werden – wie im Deep Learning, wo Computer riesige Datenmengen analysieren und daraus wiederkehrende Strukturen ableiten. Das ermöglicht Intuition, Wahrnehmung und schnelle Entscheidungen, bleibt aber auf statistische Zusammenhänge beschränkt.
Die zweite Art von Abstraktion ist deutlicher an klare Regeln gebunden: Hier geht es darum, Strukturen und Abläufe zu erkennen, die exakt gleich aufgebaut sind, auch wenn sie anders aussehen. Dieser Ansatz steht für logisches Denken, Planung und das systematische Zusammensetzen von Lösungswegen – ähnlich wie beim Programmieren oder beim Lösen von Mathematikaufgaben.
Während Deep-Learning-Modelle in der ersten Art besonders stark sind, scheitern sie oft an Aufgaben, die ein Verständnis für solche regelbasierten und strukturierten Zusammenhänge erfordern, etwa beim ordentlichen Sortieren von Listen oder beim gezielten Manipulieren von Symbolen, wie es klassische Computerprogramme leisten.
Chollet betont, dass fortgeschrittene Intelligenz die Fähigkeit erfordert, beide Arten von Abstraktion zu kombinieren: die schnelle, intuitive Mustererkennung des Deep Learning (Typ 1) und die exakte, flexible Komposition und Manipulation von Symbolen und Regeln (Typ 2), um wirklich neue Lösungen zu generieren.
Chollets NDEA will Meta-Lerner bauen
Die Zukunft der KI sieht Chollet in einem System, das beide Typen von Abstraktion intelligent kombiniert. Im Zentrum steht für ihn ein "programmiererartiger Meta-Lerner", der bei jeder neuen Aufgabe eigenständig ein an die jeweilige Problemstellung angepasstes Programm entwickelt. Um dieses Ziel zu erreichen, setzt Chollet auf eine Architektur, die zwei zentrale Bausteine miteinander verschränkt: tiefe neuronale Netze zur Mustererkennung (Typ 1) und eine diskrete Programmsuche für symbolische, logisch strukturierte Aufgaben (Typ 2).
Konkret beschreibt Chollet, dass das System zunächst über Deep Learning aus riesigen Datenmengen wiederverwendbare Wissensbausteine extrahiert – sogenannte Abstraktionen. Diese Bausteine werden in einer stetig wachsenden, globalen Bibliothek gespeichert. Trifft das System auf eine neue Aufgabe, nutzt es seine Deep-Learning-Komponente, um schnell vielversprechende Lösungsansätze – also Kandidatenprogramme – vorzuschlagen und damit die riesige Zahl möglicher Programme einzuschränken. Das soll verhindern, dass die Suche im symbolischen Raum zu aufwendig wird.
Anschließend setzt die Komponente zur diskreten Programmsuche ein: Sie kombiniert die vorgeschlagenen Bausteine schrittweise zu einem konkreten, auf die Aufgabe zugeschnittenen Programm. Dabei wird nicht von Null gesucht, sondern gezielt in der Bibliothek nach passenden Elementen gestöbert – ähnlich wie ein Softwareentwickler vorhandene Bibliotheken und Tools nutzt, um für ein neues Problem effizient eine Lösung zusammenzustellen.
Während der Problemlösung kann das System neue, nützliche Abstraktionen oder Lösungswege entdecken und diese wiederum in die Bibliothek aufnehmen. So verbessert sich der Meta-Lerner mit jeder neuen Aufgabe selbstständig weiter: Er erweitert seine Wissensbasis und verfeinert seine Intuition, wie sich aus bekannten Bausteinen neue Programme effizient zusammensetzen lassen. Ziel ist es, dass die KI immer besser darin wird, komplett neue Herausforderungen eigenständig und mit möglichst wenig zusätzlichem Training zu meistern.
Chollet will mit seinem neuen Forschungslabor NDEA genau diese Architektur praktisch umsetzen und damit eine KI schaffen, die wie ein menschlicher Programmierer flexibel, erfinderisch und adaptiv ist – und auf diese Weise den wissenschaftlichen Fortschritt beschleunigen kann.