Inhalt
summary Zusammenfassung
DEEP MINDS Podcast
Podcast über Künstliche Intelligenz und Wissenschaft
KI bei der Bundeswehr und der BWI | DEEP MINDS #16

Die neueste Schach-KI von Google DeepMind nutzt eine Sprachmodell-Architektur, spielt auf hohem Niveau und zeigt, dass Transformer wohl mehr sein können als stochastische Papageien.

Forscher von Google DeepMind haben ein KI-Modell entwickelt, das Schach auf Großmeisterniveau spielt, ohne auf die komplexen Suchalgorithmen zurückzugreifen, die bisher starke Schachprogramme wie Stockfish 16, IBMs Deep Blue oder auch Deepminds AlphaZero auszeichnen.

Stattdessen hat das DeepMind-Team ein 270 Millionen Parameter umfassendes Transformer-Modell mit Schachpartien trainiert. Herkömmliche Schachcomputer verwenden ausgeklügelte Algorithmen und Suchstrategien, um den besten Zug zu finden, während das DeepMind-Modell ausschließlich auf der Vorhersage von Zugbewertungen basiert.

Google Deepminds Transformer-Modell lernt von Stockfish

Zunächst sammelte das Team 10 Millionen Schachpartien und wies jedem Brett einen Wert zu, der die Gewinnwahrscheinlichkeit nach Stockfish 16 angibt. Dann berechneten sie alle legalen Züge für jede Partie und bewerteten sie ebenfalls, was zu einem großen Datensatz von 15 Milliarden Datenpunkten führte. Das Transformer-Netzwerk lernte dann, diese Spielwerte vorherzusagen, indem es mit diesem Datensatz durch überwachtes Lernen trainiert wurde. Das Netz wurde so optimiert, dass die vorhergesagten Werte den von Stockfish gelieferten Werten so nahe wie möglich kamen. Im Prinzip destillierte das Team so die Fähigkeiten von Stockfish in eine Schach-Policy für das Transformer-Modell.

Anzeige
Anzeige

In Tests erreichte das Modell in Blitzschachpartien gegen menschliche Spieler eine Elo-Zahl von 2895, liegt damit auf Großmeisterniveau und konnte eine Reihe anspruchsvoller Schachprobleme lösen. Damit übertrifft das Transformer-Netz auch AlphaZero, wenn dies ohne die MCTS-Suchstrategie (Monte Carlo Tree Search) eingesetzt wird.

Allerdings hat das Modell auch Einschränkungen, so kann es den Spielverlauf nicht speichern und nicht auf Basis der Spielhistorie planen. Außerdem spielt es gegen Schachcomputer schlechter als gegen Menschen, insbesondere in Situationen, in denen Menschen normalerweise aufgeben, während Schachcomputer das Spiel trotz geringer Chancen zu Ende spielen. Das Team ist jedoch der Ansicht, dass diese Probleme gelöst werden können.

Schachfähigkeiten als Argument gegen Papageien

Diese Forschung ist nicht nur für das Schachspiel von Bedeutung, sondern bietet auch Einblicke in das Potenzial der Transformer-Architektur in anderen Bereichen. Das Team bezieht sich explizit auf das Narrativ von großen Sprachmodellen als "stochastische Papageien".

"Unsere Arbeit reiht sich damit in eine schnell wachsende Literatur ein, die zeigt, dass komplexe und anspruchsvolle Algorithmen in Feed-Forward-Transformatoren destilliert werden können. Dies impliziert einen Paradigmenwechsel, weg von der Betrachtung großer Transformatoren als 'nur' statistische Mustererkenner, hin zu einer Betrachtung als leistungsfähige Technik für die generelle Approximation von Algorithmen."

Andere Projekte wie OthelloGPT haben bereits gezeigt, dass Transformer mehr als nur statistische Mustererkenner sein können.

Anzeige
Community beitreten
Kommt in die DECODER-Community bei Discord,Reddit, Twitter und Co. - wir freuen uns auf euch!
Anzeige
Community beitreten
Kommt in die DECODER-Community bei Discord,Reddit, Twitter und Co. - wir freuen uns auf euch!
Unterstütze unsere unabhängige, frei zugängliche Berichterstattung. Jeder Betrag hilft und sichert unsere Zukunft. Jetzt unterstützen:
Banküberweisung
Zusammenfassung
  • Google DeepMind hat eine KI entwickelt, die Schach auf Großmeisterniveau spielt, indem sie eine Transformer-Architektur verwendet, anstatt komplexe Suchalgorithmen wie Stockfish 16 oder AlphaZero.
  • Das Team trainierte das 270 Millionen Parameter umfassende Transformer-Modell mit Schachpartien und verwendete überwachtes Lernen, um die von Stockfish gelieferten Werte vorherzusagen.
  • Diese Forschung zeigt das Potenzial der Transformer-Architektur in anderen Bereichen und kann als Hinweis gesehen werden, dass große Sprachmodelle mehr als nur "stochastische Papageien" sind.
Quellen
Max ist leitender Redakteur bei THE DECODER. Als studierter Philosoph beschäftigt er sich mit dem Bewusstsein, KI und der Frage, ob Maschinen wirklich denken können oder nur so tun als ob.
Community beitreten
Kommt in die DECODER-Community bei Discord,Reddit, Twitter und Co. - wir freuen uns auf euch!