Inhalt
summary Zusammenfassung

Forschende geben KI-Agenten Zugriff auf ein "Weltwissens-Modell". So sollen sie effektiver Aufgaben lösen können, ohne ins Leere zu laufen oder Unsinn zu generieren.

Anzeige

Agenten, die auf großen Sprachmodellen wie GPT-4 basieren, zeigen immer wieder Potenzial bei der Planung und Lösung komplexer Aufgaben. Allerdings arbeiten sie oft nach dem Trial-and-Error-Prinzip und "halluzinieren" realitätsferne Aktionen. In einer neuen Arbeit untersuchen Forschende der Zhejiang Universität und von Alibaba, ob ein externes, gelerntes "World Knowledge Model" (WKM), das KI-Agenten mit zusätzlichem Wissen ausstattet, die Leistung der Modelle verbessern kann.

Ähnlich wie Menschen mentale Modelle der Welt aufbauen, sollen auch KI-Agenten ein solches Modell nutzen können.

Bild: Qiao, Fang et al.

Dabei unterscheiden die Forscher zwischen globalem "Aufgabenwissen" und lokalem "Zustandswissen". Das Aufgabenwissen soll dem Agenten vorab einen Überblick über die notwendigen Schritte zur Lösung einer Aufgabe geben und Irrwege vermeiden. Das Zustandswissen hält fest, was der Agent in jedem Schritt über den aktuellen Zustand der Welt weiß. Dadurch sollen Widersprüche vermieden werden.

Anzeige
Anzeige

Um das externe Modell zu trainieren, lassen die Forscher den Agenten selbst Wissen aus erfolgreichen und erfolglosen Problemlösungsversuchen von Menschen und aus eigenen Versuchen extrahieren. Daraus generiert der Agent dann relevantes Aufgaben- und Zustandswissen.

Externes Modell für "Weltwissen" verbessert Leistung in neuen Aufgaben

In der Planungsphase gibt das WKM zunächst das Aufgabenwissen als Leitfaden vor. Für jeden Schritt generiert es dann eine Beschreibung des aktuellen Zustands. Dabei wird in einer Wissensbasis nach ähnlichen Zuständen und deren Folgeaktionen gesucht. Aus deren Wahrscheinlichkeiten und denen des Agentenmodells wird dann die nächste Aktion ausgewählt.

Experimente zeigen, dass KI-Agenten mit WKM deutlich besser abschneiden als solche ohne. Vor allem bei neuen, unbekannten Aufgaben zahlt sich das Weltwissen aus.

Konkret testete das Team die Agenten anhand von drei komplexen, realitätsnah simulierten Datensätzen: ALFWorld, WebShop und ScienceWorld.

In ALFWorld müssen die Agenten Aufgaben in einer virtuellen Haushaltssituation erfüllen, wie z.B. Gegenstände aufheben und mit Haushaltsgeräten interagieren. WebShop simuliert ein Einkaufserlebnis, bei dem die Agenten bestimmte Artikel in einem virtuellen Geschäft finden und kaufen müssen. In ScienceWorld müssen die Agenten wissenschaftliche Experimente in einer virtuellen Laborumgebung durchführen.

Empfehlung

Das Team testete Open-Source-LLMs (Mistral-7B, Gemma-7B und Llama-3-8B) plus WKMs und verglich ihre Leistung mit der von GPT-4. Die Experimente zeigten, dass die entwickelten WKMs die Leistung der Agenten deutlich verbessern konnten und sie in einigen Aufgaben GPT-4 im Duell übertrafen. In einem separaten Experiment zeigte das Team auch, dass die kleineren Modelle plus WKM verwendet werden können, um GPT-4 zu trainieren und dessen Leistung deutlich zu verbessern.

Als Nächstes wollen die Forscher ein einheitliches Weltwissensmodell trainieren, das verschiedene Agenten bei unterschiedlichen Aufgaben unterstützen kann.

Anzeige
Anzeige
Community beitreten
Kommt in die DECODER-Community bei Discord,Reddit, Twitter und Co. - wir freuen uns auf euch!
Unterstütze unsere unabhängige, frei zugängliche Berichterstattung. Jeder Betrag hilft und sichert unsere Zukunft. Jetzt unterstützen:
Banküberweisung
Zusammenfassung
  • Forscher der Zhejiang Universität und Alibaba statten KI-Agenten mit einem externen "World Knowledge Model" (WKM) aus, das ihnen zusätzliches Wissen zur Verfügung stellt, um komplexe Aufgaben effektiver zu lösen.
  • Das WKM unterscheidet zwischen globalem "Aufgabenwissen", das dem Agenten vorab einen Überblick über die notwendigen Schritte zur Lösung einer Aufgabe gibt, und lokalem "Zustandswissen", das festhält, was der Agent in jedem Schritt über den aktuellen Zustand der Welt weiß.
  • In Experimenten mit drei realitätsnahen Datensätzen (ALFWorld, WebShop und ScienceWorld) schnitten KI-Agenten mit WKM deutlich besser ab als solche ohne, insbesondere bei neuen, unbekannten Aufgaben, und übertrafen in einigen Fällen sogar GPT-4.
Quellen
Max ist leitender Redakteur bei THE DECODER. Als studierter Philosoph beschäftigt er sich mit dem Bewusstsein, KI und der Frage, ob Maschinen wirklich denken können oder nur so tun als ob.
Community beitreten
Kommt in die DECODER-Community bei Discord,Reddit, Twitter und Co. - wir freuen uns auf euch!