Die jüngsten Goldmedaillen für KI-Systeme von Google Deepmind und OpenAI bei der Internationalen Mathematik-Olympiade befeuern eine alte Debatte über die Natur von Intelligenz und die Rolle von Symbolen, in der Deep-Learning-Ansätze auf die klassische KI treffen.
Google Deepmind und OpenAI haben bekannt gegeben, dass ihre jeweiligen KI-Systeme bei der Internationalen Mathematik-Olympiade (IMO) ein Niveau erreicht haben, das für eine Goldmedaille ausreicht. Das Besondere daran: Die Leistung soll ausschließlich durch die Verarbeitung natürlicher Sprache erzielt worden sein, ohne den Rückgriff auf symbolische Werkzeuge - zumindest während der Lösung, denn während des Trainings dürften solche in Form von Verifiern o.ä. zum Einsatz gekommen sein.
Für den Deepmind-Forscher Andrew Lampinen ist dies Teil eines "langfristigen Wandels", der die KI näher an die menschliche Intelligenz heranführt. Die Ergebnisse stellen eine grundlegende Auffassung in der KI-Forschung infrage und befeuern eine ideologische Debatte über den richtigen Weg zu fortschrittlichem logischem Denken.
Die alte Schule: KI als formale Symbolmanipulation
Traditionell, insbesondere in der als "Good Old-Fashioned AI" (GOFAI) bekannten Ära, wurde Intelligenz als die formale Manipulation von diskreten Symbolen verstanden. Auch heute noch argumentieren Verfechter sogenannter neuro-symbolischer Ansätze, dass "reine Symbolmanipulation die einzig 'wahre' Intelligenz ist", wie Lampinen auf X es ausdrückt. Aus dieser Perspektive sollte "unordentliches" Deep Learning lediglich als Zuarbeiter für einen exakten symbolischen Löser dienen.
Dieser hybride Ansatz ist durchaus produktiv: Deepminds eigenes System AlphaProof, das im Vorjahr eine Silbermedaille bei der IMO errang, basierte auf einer formalen, verifizierbaren Sprache. Doch laut Lampinen stellt dieser Ansatz die Dinge "genau auf den Kopf, was wirkliche Intelligenz angeht".
Symbole als Werkzeuge, nicht als Käfig
Lampinen vertritt eine andere Perspektive. Für Menschen, so argumentiert er, sind mathematische Symbole und formale Systeme wie die Programmiersprache Lean "Werkzeuge, deren Gebrauch wir erlernen", keine starre Struktur, die unser Denken umschließt. In einem Podcast-Interview erklärte Lampinen, dass Symbole ihre Bedeutung erst durch den Gebrauch und die Übereinkunft der Nutzer erhalten – eine Idee, die auf Philosophen wie Wittgenstein zurückgeht. Ein Symbol bedeute etwas "für jemanden", seine Bedeutung sei also subjektiv und nicht inhärent.
Selbst in streng logischen Domänen wie der Mathematik sei diese subjektive, intuitive Ebene entscheidend. Ein Paper von Lampinen und Kollegen zitiert Mathematiker, die betonen, dass es die "Ideen hinter den Manipulationen" sind, die den Fortschritt ermöglichen, nicht ein blindes "Spiel mit bedeutungslosen Token". Die semantische Intuition des Menschen diene als Heuristik, um aus einem kombinatorisch riesigen Raum möglicher logischer Schritte die sinnvollen auszuwählen.
Die IMO-Resultate scheinen diese Sichtweise zu untermauern. Sie deuten darauf hin, dass Deep-Learning-Modelle, die ausschließlich mit natürlicher Sprache arbeiten, in der Lage sind, Leistungen auf menschlichem Niveau zu erreichen. Googles "Gemini Deep Think" soll dafür spezielle Reinforcement-Learning-Techniken und mehr "Denkzeit" nutzen. Das OpenAI-Modell wird ebenfalls als generalistisches Reasoning-Modell beschrieben, das "stundenlang nachdenken" kann, um eine Lösung zu finden.
Symbolische Werkzeuge sollen nach Lampinen jedoch weiter eine Rolle spielen - eben nur als Werkzeug und nicht als Kern der Intelligenz eines Systems. Und das müsse noch einen weiteren Sprung machen, wenn es in Zukunft bedeutende Beiträge zur mathematischen Forschung liefern solle. Denn die benötigennicht einige Stunden, sondern Monate oder Jahre.