Inhalt
summary Zusammenfassung

Die jüngsten Goldmedaillen für KI-Systeme von Google Deepmind und OpenAI bei der Internationalen Mathematik-Olympiade befeuern eine alte Debatte über die Natur von Intelligenz und die Rolle von Symbolen, in der Deep-Learning-Ansätze auf die klassische KI treffen.

Anzeige

Google Deepmind und OpenAI haben bekannt gegeben, dass ihre jeweiligen KI-Systeme bei der Internationalen Mathematik-Olympiade (IMO) ein Niveau erreicht haben, das für eine Goldmedaille ausreicht. Das Besondere daran: Die Leistung soll ausschließlich durch die Verarbeitung natürlicher Sprache erzielt worden sein, ohne den Rückgriff auf symbolische Werkzeuge - zumindest während der Lösung, denn während des Trainings dürften solche in Form von Verifiern o.ä. zum Einsatz gekommen sein.

Für den Deepmind-Forscher Andrew Lampinen ist dies Teil eines "langfristigen Wandels", der die KI näher an die menschliche Intelligenz heranführt. Die Ergebnisse stellen eine grundlegende Auffassung in der KI-Forschung infrage und befeuern eine ideologische Debatte über den richtigen Weg zu fortschrittlichem logischem Denken.

Die alte Schule: KI als formale Symbolmanipulation

Traditionell, insbesondere in der als "Good Old-Fashioned AI" (GOFAI) bekannten Ära, wurde Intelligenz als die formale Manipulation von diskreten Symbolen verstanden. Auch heute noch argumentieren Verfechter sogenannter neuro-symbolischer Ansätze, dass "reine Symbolmanipulation die einzig 'wahre' Intelligenz ist", wie Lampinen auf X es ausdrückt. Aus dieser Perspektive sollte "unordentliches" Deep Learning lediglich als Zuarbeiter für einen exakten symbolischen Löser dienen.

Anzeige
Anzeige

Dieser hybride Ansatz ist durchaus produktiv: Deepminds eigenes System AlphaProof, das im Vorjahr eine Silbermedaille bei der IMO errang, basierte auf einer formalen, verifizierbaren Sprache. Doch laut Lampinen stellt dieser Ansatz die Dinge "genau auf den Kopf, was wirkliche Intelligenz angeht".

Symbole als Werkzeuge, nicht als Käfig

Lampinen vertritt eine andere Perspektive. Für Menschen, so argumentiert er, sind mathematische Symbole und formale Systeme wie die Programmiersprache Lean "Werkzeuge, deren Gebrauch wir erlernen", keine starre Struktur, die unser Denken umschließt. In einem Podcast-Interview erklärte Lampinen, dass Symbole ihre Bedeutung erst durch den Gebrauch und die Übereinkunft der Nutzer erhalten – eine Idee, die auf Philosophen wie Wittgenstein zurückgeht. Ein Symbol bedeute etwas "für jemanden", seine Bedeutung sei also subjektiv und nicht inhärent.

Selbst in streng logischen Domänen wie der Mathematik sei diese subjektive, intuitive Ebene entscheidend. Ein Paper von Lampinen und Kollegen zitiert Mathematiker, die betonen, dass es die "Ideen hinter den Manipulationen" sind, die den Fortschritt ermöglichen, nicht ein blindes "Spiel mit bedeutungslosen Token". Die semantische Intuition des Menschen diene als Heuristik, um aus einem kombinatorisch riesigen Raum möglicher logischer Schritte die sinnvollen auszuwählen.

Die IMO-Resultate scheinen diese Sichtweise zu untermauern. Sie deuten darauf hin, dass Deep-Learning-Modelle, die ausschließlich mit natürlicher Sprache arbeiten, in der Lage sind, Leistungen auf menschlichem Niveau zu erreichen. Googles "Gemini Deep Think" soll dafür spezielle Reinforcement-Learning-Techniken und mehr "Denkzeit" nutzen. Das OpenAI-Modell wird ebenfalls als generalistisches Reasoning-Modell beschrieben, das "stundenlang nachdenken" kann, um eine Lösung zu finden.

Symbolische Werkzeuge sollen nach Lampinen jedoch weiter eine Rolle spielen - eben nur als Werkzeug und nicht als Kern der Intelligenz eines Systems. Und das müsse noch einen weiteren Sprung machen, wenn es in Zukunft bedeutende Beiträge zur mathematischen Forschung liefern solle. Denn die benötigennicht einige Stunden, sondern Monate oder Jahre.

Anzeige
Anzeige
Community beitreten
Kommt in die DECODER-Community bei Discord,Reddit, Twitter und Co. - wir freuen uns auf euch!
Empfehlung
Unterstütze unsere unabhängige, frei zugängliche Berichterstattung. Jeder Betrag hilft und sichert unsere Zukunft. Jetzt unterstützen:
Banküberweisung
Zusammenfassung
  • KI-Systeme von Google Deepmind und OpenAI haben bei der Internationalen Mathematik-Olympiade ein Niveau erreicht, das für eine Goldmedaille ausreicht – ausschließlich durch Verarbeitung natürlicher Sprache, ohne symbolische Werkzeuge zu nutzen.
  • Die Ergebnisse heizen eine alte Debatte in der KI-Forschung an: Während klassische Ansätze auf formaler Symbolmanipulation bestehen, argumentiert Deepmind-Forscher Andrew Lampinen, dass Symbole für Menschen nur erlernte Werkzeuge sind und nicht das Denken selbst bestimmen.
  • Laut Lampinen sind Ideen und semantische Intuition wichtiger als reine Symbolverarbeitung; Deep-Learning-Modelle könnten mit ausreichend "Denkzeit" und spezialisierter Technik menschliches Leistungsniveau erreichen, müssten für echte mathematische Forschung aber noch deutlich ausgebaut werden.
Max ist leitender Redakteur bei THE DECODER. Als studierter Philosoph beschäftigt er sich mit dem Bewusstsein, KI und der Frage, ob Maschinen wirklich denken können oder nur so tun als ob.
Community beitreten
Kommt in die DECODER-Community bei Discord,Reddit, Twitter und Co. - wir freuen uns auf euch!