Skip to content

Mathe-Gold für KI entfacht alte Debatte über Symbolmanipulation und echte Intelligenz

Image description
Midjuorney prompted by THE DECODER

Kurz & Knapp

  • KI-Systeme von Google Deepmind und OpenAI haben bei der Internationalen Mathematik-Olympiade ein Niveau erreicht, das für eine Goldmedaille ausreicht – ausschließlich durch Verarbeitung natürlicher Sprache, ohne symbolische Werkzeuge zu nutzen.
  • Die Ergebnisse heizen eine alte Debatte in der KI-Forschung an: Während klassische Ansätze auf formaler Symbolmanipulation bestehen, argumentiert Deepmind-Forscher Andrew Lampinen, dass Symbole für Menschen nur erlernte Werkzeuge sind und nicht das Denken selbst bestimmen.
  • Laut Lampinen sind Ideen und semantische Intuition wichtiger als reine Symbolverarbeitung; Deep-Learning-Modelle könnten mit ausreichend "Denkzeit" und spezialisierter Technik menschliches Leistungsniveau erreichen, müssten für echte mathematische Forschung aber noch deutlich ausgebaut werden.

Die jüngsten Goldmedaillen für KI-Systeme von Google Deepmind und OpenAI bei der Internationalen Mathematik-Olympiade befeuern eine alte Debatte über die Natur von Intelligenz und die Rolle von Symbolen, in der Deep-Learning-Ansätze auf die klassische KI treffen.

Google Deepmind und OpenAI haben bekannt gegeben, dass ihre jeweiligen KI-Systeme bei der Internationalen Mathematik-Olympiade (IMO) ein Niveau erreicht haben, das für eine Goldmedaille ausreicht. Das Besondere daran: Die Leistung soll ausschließlich durch die Verarbeitung natürlicher Sprache erzielt worden sein, ohne den Rückgriff auf symbolische Werkzeuge - zumindest während der Lösung, denn während des Trainings dürften solche in Form von Verifiern o.ä. zum Einsatz gekommen sein.

Für den Deepmind-Forscher Andrew Lampinen ist dies Teil eines "langfristigen Wandels", der die KI näher an die menschliche Intelligenz heranführt. Die Ergebnisse stellen eine grundlegende Auffassung in der KI-Forschung infrage und befeuern eine ideologische Debatte über den richtigen Weg zu fortschrittlichem logischem Denken.

Die alte Schule: KI als formale Symbolmanipulation

Traditionell, insbesondere in der als "Good Old-Fashioned AI" (GOFAI) bekannten Ära, wurde Intelligenz als die formale Manipulation von diskreten Symbolen verstanden. Auch heute noch argumentieren Verfechter sogenannter neuro-symbolischer Ansätze, dass "reine Symbolmanipulation die einzig 'wahre' Intelligenz ist", wie Lampinen auf X es ausdrückt. Aus dieser Perspektive sollte "unordentliches" Deep Learning lediglich als Zuarbeiter für einen exakten symbolischen Löser dienen.

Dieser hybride Ansatz ist durchaus produktiv: Deepminds eigenes System AlphaProof, das im Vorjahr eine Silbermedaille bei der IMO errang, basierte auf einer formalen, verifizierbaren Sprache. Doch laut Lampinen stellt dieser Ansatz die Dinge "genau auf den Kopf, was wirkliche Intelligenz angeht".

Symbole als Werkzeuge, nicht als Käfig

Lampinen vertritt eine andere Perspektive. Für Menschen, so argumentiert er, sind mathematische Symbole und formale Systeme wie die Programmiersprache Lean "Werkzeuge, deren Gebrauch wir erlernen", keine starre Struktur, die unser Denken umschließt. In einem Podcast-Interview erklärte Lampinen, dass Symbole ihre Bedeutung erst durch den Gebrauch und die Übereinkunft der Nutzer erhalten – eine Idee, die auf Philosophen wie Wittgenstein zurückgeht. Ein Symbol bedeute etwas "für jemanden", seine Bedeutung sei also subjektiv und nicht inhärent.

Selbst in streng logischen Domänen wie der Mathematik sei diese subjektive, intuitive Ebene entscheidend. Ein Paper von Lampinen und Kollegen zitiert Mathematiker, die betonen, dass es die "Ideen hinter den Manipulationen" sind, die den Fortschritt ermöglichen, nicht ein blindes "Spiel mit bedeutungslosen Token". Die semantische Intuition des Menschen diene als Heuristik, um aus einem kombinatorisch riesigen Raum möglicher logischer Schritte die sinnvollen auszuwählen.

Die IMO-Resultate scheinen diese Sichtweise zu untermauern. Sie deuten darauf hin, dass Deep-Learning-Modelle, die ausschließlich mit natürlicher Sprache arbeiten, in der Lage sind, Leistungen auf menschlichem Niveau zu erreichen. Googles "Gemini Deep Think" soll dafür spezielle Reinforcement-Learning-Techniken und mehr "Denkzeit" nutzen. Das OpenAI-Modell wird ebenfalls als generalistisches Reasoning-Modell beschrieben, das "stundenlang nachdenken" kann, um eine Lösung zu finden.

Symbolische Werkzeuge sollen nach Lampinen jedoch weiter eine Rolle spielen - eben nur als Werkzeug und nicht als Kern der Intelligenz eines Systems. Und das müsse noch einen weiteren Sprung machen, wenn es in Zukunft bedeutende Beiträge zur mathematischen Forschung liefern solle. Denn die benötigennicht einige Stunden, sondern Monate oder Jahre.

KI-News ohne Hype
Von Menschen kuratiert.

  • Mehr als 20 Prozent Launch-Rabatt.
  • Lesen ohne Ablenkung – keine Google-Werbebanner.
  • Zugang zum Kommentarsystem und Austausch mit der Community.
  • Wöchentlicher KI-Newsletter.
  • 6× jährlich: „KI Radar“ – Deep-Dives zu den wichtigsten KI-Themen.
  • Bis zu 25 % Rabatt auf KI Pro Online-Events.
  • Zugang zum kompletten Archiv der letzten zehn Jahre.
  • Die neuesten KI‑Infos von The Decoder – klar und auf den Punkt.
The Decoder abonnieren