Forschende zeigen, dass künstliche Intelligenzen kausale Modelle erlernen müssen, um sich robust an neue Umgebungen anpassen zu können.
Das Erlernen kausaler Zusammenhänge spielt eine fundamentale Rolle in der menschlichen Kognition. Ist KI auf menschlichem Niveau also ohne kausales Schließen unmöglich? Jüngste Fortschritte bei KI-Agenten und -Modellen, die sich an viele Umgebungen und Aufgaben anpassen können, ohne explizit kausale Modelle zu lernen, stellen diese Sichtweise infrage.
Forscher von Google DeepMind haben nun aber mathematisch bewiesen, dass jedes KI-System, das sich robust an veränderte Bedingungen anpassen kann, zwangsläufig ein kausales Modell der Daten und ihrer Zusammenhänge gelernt haben muss - nur eben nicht explizit.
In ihrer Studie betrachteten sie "Entscheidungsaufgaben", bei denen ein KI-Agent eine Strategie (policy) wählen muss, um ein Ziel zu erreichen. Ein Beispiel wäre ein Klassifizierungssystem, das anhand von Patientendaten eine Diagnose stellen soll.
Die Forscher zeigten: Ändert sich die Verteilung der Daten (distributional shift), etwa weil der Agent in eine neue Klinik mit anderen Patientengruppen versetzt wird, muss der Agent seine Strategie anpassen.
Kann der Agent dies mit minimalen Verlusten (regret) tun, egal welche Veränderungen in den Daten auftreten, dann muss er ein kausales Modell der Zusammenhänge zwischen den relevanten Variablen gelernt haben, so die mathematische Herleitung. Je besser die Anpassungsfähigkeit, desto genauer das kausale Modell.
Der Unterschied zum expliziten Lernen kausaler Modelle: Die KI lernt diese Modelle implizit, unabhängig davon, mit welcher Methode sie trainiert wurde. Das trainierte System enthält also implizit Wissen über kausale Zusammenhänge.
Aus den in der Arbeit vorgestellten Theoremen ziehen die Forscher zwei Schlussfolgerungen:
- Optimale Strategien kodieren alle kausalen und assoziativen Beziehungen.
- Das Erlernen der Verallgemeinerung bei Domänenverschiebungen ist gleichbedeutend mit dem Erlernen eines kausalen Modells des Datengenerierungsprozesses - Probleme, die auf den ersten Blick konzeptionell unterschiedlich sind.
Kausale Modelle könnten emergente Fähigkeiten erklären
Die Ergebnisse könnten beispielsweise erklären, wie KIs sogenannte emergente Fähigkeiten entwickeln: Beim Training an vielen Aufgaben lernen sie nebenbei ein kausales Modell der Welt, das sie dann flexibel anwenden können. Voraussetzung dafür ist allerdings, dass dieses Modell aus den Trainingsdaten erkennbar hervorgeht, so das Team.
"Es stellt sich also die Frage, ob die derzeitigen Methoden und Trainingsprogramme für das Lernen kausaler Weltmodelle ausreichen. Erste Ergebnisse deuten darauf hin, dass Transformer-Modelle Weltmodelle erlernen können, die zu Vorhersagen außerhalb der Verteilung fähig sind. Während Foundation-Modelle in der Lage sind, bei Benchmarks für kausale Schlussfolgerungen eine dem Stand der Technik entsprechende Genauigkeit zu erreichen, ist umstritten, wie sie dies erreichen (und ob es sich um echte kausale Schlussfolgerungen handelt)."
Aus dem Paper
Die Autoren sehen ihre Arbeit als einen Schritt zum Verständnis der Rolle der Kausalität für die "allgemeine Intelligenz". Kausales Denken sei die Grundlage menschlicher Intelligenz und möglicherweise notwendig für menschenähnliche KI. Obwohl einige KI-Systeme auch ohne explizite kausale Modellierung gute Ergebnisse erzielen, zeige die Arbeit, dass für eine robuste Entscheidungsfindung jedes System notwendigerweise ein kausales Modell der Daten lernen muss - unabhängig von Trainingsmethode oder Architektur. Dieses Modell ermöglicht es, die optimale Strategie für jedes Ziel zu finden. Die Ergebnisse wiesen auf eine tiefe Verbindung zwischen Kausalität und allgemeiner Intelligenz hin und zeigten dass kausale Weltmodelle ein notwendiger Bestandteil einer robusten und vielseitigen KI sind.