Inhalt
summary Zusammenfassung

Ein Team von Forschenden der Universitäten Stanford und Washington sowie von Google DeepMind hat einen neuartigen Ansatz entwickelt, um menschliches Verhalten und Einstellungen mit KI-Agenten zu simulieren.

Anzeige

Laut der Studie könnten solche Simulationen als Labor dienen, um Theorien in Bereichen wie Wirtschaft, Soziologie, Organisationen und Politikwissenschaft zu testen.

Flussdiagramm: Forschungsdesign mit menschlichen Teilnehmern und simulierten Agenten, die identische Tests durchlaufen und verglichen werden.
Generative Agents verwenden Interviewtranskripte als Gedächtnisstütze, um authentisches Verhalten in verschiedenen Experimenten nachzustellen. | Bild: Park et al

Die Forschenden rekrutierten über 1.000 Teilnehmende, die die US-Bevölkerung in Bezug auf Alter, Geschlecht, Bildung und politische Ideologie repräsentieren sollten. Alle absolvierten ein zweistündiges Interview mit einem KI-Interview-Agenten, das mit OpenAIs Open-Source-Modell Whisper in transkribiert wurde.

KI-Agenten kombinieren Interviews mit Sprachmodellen

Basierend auf den Interviewtranskripten und GPT-4o als Sprachmodell entwickelten die Forschenden eine neue Architektur für generative Agenten. Wird ein Agent abgefragt, wird das gesamte Interviewtranskript in den Modell-Prompt eingefügt und so angewiesen, die Person auf Basis ihrer Interviewdaten zu imitieren.

Anzeige
Anzeige
Flussdiagramm: Generativer Agent mit Memory-Komponente verarbeitet Fragen und Interviewtranskripte für Vorhersagen mit Expert Reflection.
Das Flussdiagramm veranschaulicht die Interaktion zwischen einem generativen KI-Agenten mit Gedächtnisfunktion und der Verarbeitung von Interviewtranskripten. Die Komponente Expert Reflection ermöglicht eine Verbesserung der Prognosequalität durch kontinuierliches Lernen. | Bild: Park et al.

Die Forschenden bewerteten die Agenten danach, wie gut sie die Antworten der Teilnehmenden in Umfragen und Experimenten vorhersagen können.

Dazu gehörten Fragen aus dem General Social Survey (GSS), dem Big-Five-Modell, fünf bekannten verhaltensökonomischen Spielen und fünf sozialwissenschaftlichen Experimenten mit Kontroll- und Behandlungsbedingungen.

Interview-basierte Agenten übertreffen demografische Agenten

Die interview-basierten Agenten sagten die GSS-Antworten der Teilnehmenden mit einer normalisierten Genauigkeit von 0,85 voraus und übertrafen damit deutlich Agenten, die nur auf demografischen Informationen oder Personenbeschreibungen basierten.

Auch bei den Big-Five-Persönlichkeitsmerkmalen und den ökonomischen Spielen erzielten die interview-basierten Agenten eine höhere Vorhersagegenauigkeit.

Drei Punktdiagramme vergleichen Genauigkeit und Korrelation verschiedener Erhebungsmethoden in sozialen Umfragen, Persönlichkeitstests und ökonomischen Spielen.
Die Analyseergebnisse zeigen deutliche Unterschiede in der Vorhersagegenauigkeit verschiedener Methoden. | Bild: Park et al.

In den Replikationsstudien replizierten sowohl die menschlichen Teilnehmenden als auch die generativen Agenten die Ergebnisse von vier der fünf Studien erfolgreich. Die von den Agenten geschätzten Effektgrößen korrelierten stark mit denen der Teilnehmenden (r = 0,98).

Empfehlung
Drei Diagramme vergleichen demografische Parität für verschiedene Erhebungsmethoden anhand von Geschlecht, Ethnie und politischer Ideologie.
Die Analyse zeigt demografische Parität für drei verschiedene Erhebungsmethoden: Interview-, Demografische- und Persona-basierte Ansätze. Die Unterschiede in der Genauigkeit und Korrelation zwischen Geschlecht, Ethnie und politischer Ideologie verdeutlichen die Stärken und Schwächen jeder Methode. | Bild: Park et al.

Eine Analyse von Untergruppen zeigte zudem, dass interview-basierte Agenten Verzerrungen in Bezug auf politische Ideologie und ethnische Zugehörigkeit im Vergleich zu demografiebasierten Agenten verringern.

Forschungszugang zum Agenten-Datensatz

Die Forschenden stellen auf GitHub einen Agenten-Datensatz mit 1.000 generativen Agenten für die Forschung zur Verfügung. Um wissenschaftliches Potenzial und Datenschutzbedenken auszubalancieren, bieten sie ein zweigleisiges Zugriffssystem: einen offenen Zugang zu aggregierten Antworten bei festgelegten Aufgaben und einen eingeschränkten Zugang zu individualisierten Antworten bei offenen Aufgaben.

Anzeige
Anzeige
Community beitreten
Kommt in die DECODER-Community bei Discord,Reddit, Twitter und Co. - wir freuen uns auf euch!
Unterstütze unsere unabhängige, frei zugängliche Berichterstattung. Jeder Betrag hilft und sichert unsere Zukunft. Jetzt unterstützen:
Banküberweisung
Zusammenfassung
  • Forschende der Universitäten Stanford, Washington und Google DeepMind haben einen neuartigen Ansatz entwickelt, um menschliches Verhalten und Einstellungen mit KI-Agenten zu simulieren, die auf Interviewtranskripten basieren.
  • Die Interview-basierten Agenten sagten Antworten in Umfragen und Experimenten genauer voraus als Agenten, die nur auf demografischen Informationen oder Personenbeschreibungen basierten, und replizierten erfolgreich die Ergebnisse von vier aus fünf sozialwissenschaftlichen Studien.
  • Die Forschenden stellen einen Agenten-Datensatz mit 1.000 generativen Agenten für die Forschung zur Verfügung, um das wissenschaftliche Potenzial zu nutzen und gleichzeitig Datenschutzbedenken durch ein zweigleisiges Zugriffssystem auszubalancieren.
Quellen
Jonathan ist Technikjournalist und beschäftigt sich stark mit Consumer Electronics. Er erklärt seinen Mitmenschen, wie KI bereits heute nutzbar ist und wie sie im Alltag unterstützen kann.
Community beitreten
Kommt in die DECODER-Community bei Discord,Reddit, Twitter und Co. - wir freuen uns auf euch!