Der als mathematisches Wunderkind bekannte Terence Tao sagt, dass KI im übertragenen Sinne der Geruchssinn fehlt.
Auch wenn KI fehlerhafte Beweise erzeuge, wirkten diese oft oberflächlich tadellos und korrekt – und verbergen dabei "wirklich dumme" Fehler, die ein Mensch sofort spüren würde. Was fehlt, so Tao, ist ein "metaphorischer mathematischer Geruch": die menschliche Intuition, dass etwas nicht stimmt.
Dieses intuitive Warnsystem könne KI bisher nicht reproduzieren, weshalb menschliche mathematische Urteilskraft unersetzlich bleibt. Generative KI habe insbesondere dann Probleme, wenn sie sich schon in eine falsche Richtung verrannt habe, anders als hybride KI-Systeme, die symbolische Komponenten integrieren.
"AlphaZero und ähnliche Systeme haben bei Go und Schach ein 'Gespür' für Positionen entwickelt: Sie erkennen, ob eine Stellung gut ist, ohne den Grund artikulieren zu können, was ihnen aber strategisches Vorgehen erlaubt. Wenn KIs ein solches 'Gespür für die Tragfähigkeit' von Beweisstrategien entwickeln könnten, würden sie beispielsweise einen Vorschlag, ein Problem in zwei Teilaufgaben zu zerlegen, bewerten können als: 'Das sieht gut aus, diese Teilaufgaben sind einfacher und haben eine gute Chance, lösbar zu sein.'"
Terence Tao
AlphaZero verwendet Monte Carlo Tree Search (MCTS) als "symbolisches Gerüst", um die Züge während des Spiels und des Trainings auszuwählen. Es ist ein Suchalgorithmus, der einen Baum von möglichen Spielverläufen (symbolische Zustände) erkundet.
Dennoch ist es ein System des Deep Reinforcement Learning, das stark auf neuronale Netze setzt. Dieses Netz lernt durch Selbstspiel (Reinforcement Learning) und repräsentiert sein "Wissen" über das Spiel in den Millionen von Parametern (Gewichten) des Netzes.
Einige in der KI-Branche glauben, dass eine Verbindung zwischen den Fähigkeiten großer Sprachmodelle und solcher symbolischen Komponenten einen KI-Durchbruch bringen könnte, während reine LLMs, auch mit Reasoning-Elementen, möglicherweise in eine Sackgasse laufen.
In der Vergangenheit bezeichnete Tao OpenAIs Reasoning-Modell o1 als "mittelmäßigen, aber nicht völlig inkompetenten" Forschungsassistenten, der zwar Routineaufgaben bewältigen könne, aber noch unkreativ und unflexibel ist. Tao beteiligt sich auch an der Entwicklung des mathematischen KI-Benchmarks "FrontierMath", der besonders anspruchsvolle Aufgaben an KI stellt.