Kinder können sich ab circa vier Jahren in andere Menschen hineinfühlen und so Handlung vorhersehen. Künstliche Intelligenz muss diese Fähigkeit erst lernen. Deepmind-Forscher zeigen, dass sie das bei anderen Computern im Ansatz schon beherrscht.
Wann immer ein digitaler Assistent heute mit einem Menschen schäkert und anbandelt, kann man sich sicher sein: Es steckt ein Mensch dahinter, der die Fragen seiner Spezies vorhergesehen und der KI die passenden Antworten mit auf den Weg gegeben hat.
Denn Künstlicher Intelligenz fehlt ein grundlegendes Verständnis für die Menschheit und ihre Umwelt. Sie kann zwar beispielsweise einen Gesichtsausdruck als fröhlich oder traurig identifizieren. Sie hat aber keine Vorstellung davon, was diese Gefühle bedeuten, wie sie entstehen und wie sie Handlung beeinflussen.
KI versetzt sich in andere Computer hinein
Auf einer Fachkonferenz für maschinelles Lernen in Stockholm stellten Deepmind-Forscher ihr Experiment "Machine Theory of Mind" (Native Theorie) vor. Der Begriff steht für das eingangs erwähnte Phänomen, dass Menschen Annahmen über Bewusstseinsvorgänge anderer Menschen vornehmen und mit den eigenen abgleichen können. Die Deepmind-Forscher wollten diese Fähigkeit für Maschinen nachbauen.
Dafür entwickelten sie das dreiteilige, miteinander verschränkte neuronale Netz "ToMnet". Sie erprobten ToMnet bei einem Experiment, bei dem drei KI-Agenten in einem virtuellen Raum farbige Boxen einsammeln sollten, um Punkte zu generieren.
Jeder der Agenten startete die Punktejagd mit anderen Voraussetzungen: Ein Agent konnte die Umgebung nicht sehen, ein weiterer sich nicht an seine vorherigen Schritte erinnern. Der dritte Agent agierte ohne Einschränkungen.
Entlang ihrer Fähigkeiten entwickelten die KI-Agenten unterschiedliche Verhaltensweisen für die Punktejagd: Der blinde Agent orientierte sich tendenziell entlang der Wände, der vergessliche Agent bewegte sich zum nächstgelegenen Objekt und der dritte Agent entwickelte eine Strategie, um viele Punkte mit möglichst wenig Bewegung einzusammeln.
Beobachten, verstehen, prognostizieren
ToMnet beobachtete das Verhalten der KI-Agenten und entwickelte auf Basis der Beobachtungen ein Verhaltensmodell für jeden Agenten. Nach etwas Training konnte die KI laut der Deepmind-Forscher zukünftige Handlungen der KI-Agenten richtig vorhersehen.
In einem weiteren Test prognostizierte ToMnet korrekt, dass ein kurzsichtiger KI-Agent einem vorgegebenen Pfad enger folgt als normalsichtige KI-Agenten. Letztgenannte reagierten auf durch die Forscher veränderte Rahmenbedingungen in der Distanz eher mit Kurskorrekturen.
Laut der Deepmind-Forscher besteht ToMnet den Sally-Anne-Test, mit dem das Einfühlungsvermögen von Kindern getestet wird, wenn sie beispielsweise auf Autismus untersucht werden.
Via: Science.org