Inhalt
summary Zusammenfassung

Forschende zeigen, dass künstliche Intelligenzen kausale Modelle erlernen müssen, um sich robust an neue Umgebungen anpassen zu können. 

Das Erlernen kausaler Zusammenhänge spielt eine fundamentale Rolle in der menschlichen Kognition. Ist KI auf menschlichem Niveau also ohne kausales Schließen unmöglich? Jüngste Fortschritte bei KI-Agenten und -Modellen, die sich an viele Umgebungen und Aufgaben anpassen können, ohne explizit kausale Modelle zu lernen, stellen diese Sichtweise infrage.

Forscher von Google DeepMind haben nun aber mathematisch bewiesen, dass jedes KI-System, das sich robust an veränderte Bedingungen anpassen kann, zwangsläufig ein kausales Modell der Daten und ihrer Zusammenhänge gelernt haben muss - nur eben nicht explizit.

In ihrer Studie betrachteten sie "Entscheidungsaufgaben", bei denen ein KI-Agent eine Strategie (policy) wählen muss, um ein Ziel zu erreichen. Ein Beispiel wäre ein Klassifizierungssystem, das anhand von Patientendaten eine Diagnose stellen soll.

Anzeige
Anzeige

Die Forscher zeigten: Ändert sich die Verteilung der Daten (distributional shift), etwa weil der Agent in eine neue Klinik mit anderen Patientengruppen versetzt wird, muss der Agent seine Strategie anpassen.

Kann der Agent dies mit minimalen Verlusten (regret) tun, egal welche Veränderungen in den Daten auftreten, dann muss er ein kausales Modell der Zusammenhänge zwischen den relevanten Variablen gelernt haben, so die mathematische Herleitung. Je besser die Anpassungsfähigkeit, desto genauer das kausale Modell.

Der Unterschied zum expliziten Lernen kausaler Modelle: Die KI lernt diese Modelle implizit, unabhängig davon, mit welcher Methode sie trainiert wurde. Das trainierte System enthält also implizit Wissen über kausale Zusammenhänge.

Aus den in der Arbeit vorgestellten Theoremen ziehen die Forscher zwei Schlussfolgerungen:

  • Optimale Strategien kodieren alle kausalen und assoziativen Beziehungen.
  • Das Erlernen der Verallgemeinerung bei Domänenverschiebungen ist gleichbedeutend mit dem Erlernen eines kausalen Modells des Datengenerierungsprozesses - Probleme, die auf den ersten Blick konzeptionell unterschiedlich sind.

Kausale Modelle könnten emergente Fähigkeiten erklären

Die Ergebnisse könnten beispielsweise erklären, wie KIs sogenannte emergente Fähigkeiten entwickeln: Beim Training an vielen Aufgaben lernen sie nebenbei ein kausales Modell der Welt, das sie dann flexibel anwenden können. Voraussetzung dafür ist allerdings, dass dieses Modell aus den Trainingsdaten erkennbar hervorgeht, so das Team.

Empfehlung

"Es stellt sich also die Frage, ob die derzeitigen Methoden und Trainingsprogramme für das Lernen kausaler Weltmodelle ausreichen. Erste Ergebnisse deuten darauf hin, dass Transformer-Modelle Weltmodelle erlernen können, die zu Vorhersagen außerhalb der Verteilung fähig sind. Während Foundation-Modelle in der Lage sind, bei Benchmarks für kausale Schlussfolgerungen eine dem Stand der Technik entsprechende Genauigkeit zu erreichen, ist umstritten, wie sie dies erreichen (und ob es sich um echte kausale Schlussfolgerungen handelt)."

Aus dem Paper

Die Autoren sehen ihre Arbeit als einen Schritt zum Verständnis der Rolle der Kausalität für die "allgemeine Intelligenz". Kausales Denken sei die Grundlage menschlicher Intelligenz und möglicherweise notwendig für menschenähnliche KI. Obwohl einige KI-Systeme auch ohne explizite kausale Modellierung gute Ergebnisse erzielen, zeige die Arbeit, dass für eine robuste Entscheidungsfindung jedes System notwendigerweise ein kausales Modell der Daten lernen muss - unabhängig von Trainingsmethode oder Architektur. Dieses Modell ermöglicht es, die optimale Strategie für jedes Ziel zu finden. Die Ergebnisse wiesen auf eine tiefe Verbindung zwischen Kausalität und allgemeiner Intelligenz hin und zeigten dass kausale Weltmodelle ein notwendiger Bestandteil einer robusten und vielseitigen KI sind.

Anzeige
Community beitreten
Kommt in die DECODER-Community bei Discord,Reddit, Twitter und Co. - wir freuen uns auf euch!
Anzeige
Community beitreten
Kommt in die DECODER-Community bei Discord,Reddit, Twitter und Co. - wir freuen uns auf euch!
Unterstütze unsere unabhängige, frei zugängliche Berichterstattung. Jeder Betrag hilft und sichert unsere Zukunft. Jetzt unterstützen:
Banküberweisung
Zusammenfassung
  • Forscher von Google DeepMind haben mathematisch bewiesen, dass KI-Systeme notwendigerweise ein kausales Modell der Daten und ihrer Zusammenhänge lernen müssen, um sich robust an veränderte Bedingungen anpassen zu können.
  • Ändert sich die Verteilung der Daten, etwa wenn ein KI-Agent in eine neue Umgebung versetzt wird, muss er seine Strategie mit minimalen Verlusten anpassen können. Je besser die Anpassungsfähigkeit, desto genauer muss das implizit gelernte Kausalmodell sein.
  • Die Ergebnisse könnten erklären, wie KI-Systeme emergente Fähigkeiten entwickeln, indem sie ein kausales Weltmodell während des Trainings an vielen Aufgaben beiläufig erlernen. Allerdings ist umstritten, ob die derzeitigen Methoden und Trainingsdaten dafür ausreichen und ob es sich bei den beobachteten Fähigkeiten um echte kausale Schlussfolgerungen handelt.
Quellen
Max ist leitender Redakteur bei THE DECODER. Als studierter Philosoph beschäftigt er sich mit dem Bewusstsein, KI und der Frage, ob Maschinen wirklich denken können oder nur so tun als ob.
Community beitreten
Kommt in die DECODER-Community bei Discord,Reddit, Twitter und Co. - wir freuen uns auf euch!