KI-Forschung

Google DeepMind entwickelt Schach-KI auf Großmeisterniveau mit Sprachmodell-Architektur

Maximilian Schreiner

Midjourney prompted by THE DECODER

Die neueste Schach-KI von Google DeepMind nutzt eine Sprachmodell-Architektur, spielt auf hohem Niveau und zeigt, dass Transformer wohl mehr sein können als stochastische Papageien.

Forscher von Google DeepMind haben ein KI-Modell entwickelt, das Schach auf Großmeisterniveau spielt, ohne auf die komplexen Suchalgorithmen zurückzugreifen, die bisher starke Schachprogramme wie Stockfish 16, IBMs Deep Blue oder auch Deepminds AlphaZero auszeichnen.

Stattdessen hat das DeepMind-Team ein 270 Millionen Parameter umfassendes Transformer-Modell mit Schachpartien trainiert. Herkömmliche Schachcomputer verwenden ausgeklügelte Algorithmen und Suchstrategien, um den besten Zug zu finden, während das DeepMind-Modell ausschließlich auf der Vorhersage von Zugbewertungen basiert.

Google Deepminds Transformer-Modell lernt von Stockfish

Zunächst sammelte das Team 10 Millionen Schachpartien und wies jedem Brett einen Wert zu, der die Gewinnwahrscheinlichkeit nach Stockfish 16 angibt. Dann berechneten sie alle legalen Züge für jede Partie und bewerteten sie ebenfalls, was zu einem großen Datensatz von 15 Milliarden Datenpunkten führte. Das Transformer-Netzwerk lernte dann, diese Spielwerte vorherzusagen, indem es mit diesem Datensatz durch überwachtes Lernen trainiert wurde. Das Netz wurde so optimiert, dass die vorhergesagten Werte den von Stockfish gelieferten Werten so nahe wie möglich kamen. Im Prinzip destillierte das Team so die Fähigkeiten von Stockfish in eine Schach-Policy für das Transformer-Modell.

In Tests erreichte das Modell in Blitzschachpartien gegen menschliche Spieler eine Elo-Zahl von 2895, liegt damit auf Großmeisterniveau und konnte eine Reihe anspruchsvoller Schachprobleme lösen. Damit übertrifft das Transformer-Netz auch AlphaZero, wenn dies ohne die MCTS-Suchstrategie (Monte Carlo Tree Search) eingesetzt wird.

Allerdings hat das Modell auch Einschränkungen, so kann es den Spielverlauf nicht speichern und nicht auf Basis der Spielhistorie planen. Außerdem spielt es gegen Schachcomputer schlechter als gegen Menschen, insbesondere in Situationen, in denen Menschen normalerweise aufgeben, während Schachcomputer das Spiel trotz geringer Chancen zu Ende spielen. Das Team ist jedoch der Ansicht, dass diese Probleme gelöst werden können.

Schachfähigkeiten als Argument gegen Papageien

Diese Forschung ist nicht nur für das Schachspiel von Bedeutung, sondern bietet auch Einblicke in das Potenzial der Transformer-Architektur in anderen Bereichen. Das Team bezieht sich explizit auf das Narrativ von großen Sprachmodellen als "stochastische Papageien".

"Unsere Arbeit reiht sich damit in eine schnell wachsende Literatur ein, die zeigt, dass komplexe und anspruchsvolle Algorithmen in Feed-Forward-Transformatoren destilliert werden können. Dies impliziert einen Paradigmenwechsel, weg von der Betrachtung großer Transformatoren als 'nur' statistische Mustererkenner, hin zu einer Betrachtung als leistungsfähige Technik für die generelle Approximation von Algorithmen."

Andere Projekte wie OthelloGPT haben bereits gezeigt, dass Transformer mehr als nur statistische Mustererkenner sein können.

Quellen: