Inhalt
summary Zusammenfassung

Neue Forschungsergebnisse zeigen, dass große Sprachmodelle (Large Language Models, LLMs) wie GPT-4 in personalisierten Debattensituationen Menschen in ihrer Überzeugungskraft deutlich übertreffen können.

Anzeige

Forscher der École Polytechnique Fédérale de Lausanne (EPFL) und der italienischen Fondazione Bruno Kessler haben in einer kontrollierten Studie die Überzeugungskraft großer Sprachmodelle wie GPT-4 im direkten Vergleich mit Menschen untersucht.

Dazu wurden die Teilnehmer nach dem Zufallsprinzip in verschiedene Gruppen eingeteilt und debattierten über kontroverse Themen. Das Forscherteam testete vier verschiedene Debattensituationen: Mensch gegen Mensch, Mensch gegen KI, Mensch gegen Mensch mit Personalisierung und Mensch gegen personalisiertes KI-Modell.

In der personalisierten Variante hatten die Debattanten zusätzlich Zugang zu anonymisierten Hintergrundinformationen über ihre Kontrahenten.

Anzeige
Anzeige

Das Ergebnis: GPT-4 mit Zugang zu persönlichen Informationen konnte die Zustimmung der Teilnehmer zu den Argumenten des Gegners um beachtliche 81,7 Prozent steigern, verglichen mit Debatten zwischen Menschen.

Ohne Personalisierung fiel der Vorteil von GPT-4 gegenüber Menschen mit 21,3 Prozent zwar immer noch positiv aus, war aber statistisch nicht signifikant.

Die Forscher führen diesen Überzeugungsvorteil der personalisierten KI darauf zurück, dass das Sprachmodell die Informationen aus dem Profil des Teilnehmers geschickt nutzt, um maßgeschneiderte, überzeugende Argumente zu formulieren.

Neue Chatbot-Risiken auf Online-Plattformen?

Besorgniserregend sei, dass in der Studie nur rudimentäre Hintergrunddaten für die Personalisierung verwendet wurden, so die Forscher.

Bei der Personalisierung wurden unter anderem Informationen zu Alter, Geschlecht und Herkunft einbezogen. | Bild: Salvi et al.

Böswillige Akteure könnten aus digitalen Spuren wie Social-Media-Aktivitäten oder Kaufverhalten noch detailliertere Nutzerprofile generieren und damit die Überzeugungskraft ihrer KI-Chatbots weiter steigern. Die Studie legt nahe, dass solche KI-gesteuerten Überzeugungsstrategien in sensiblen Online-Umgebungen wie sozialen Medien große Auswirkungen haben könnten.

Empfehlung

Den Betreibern von Online-Plattformen empfehlen die Wissenschaftler dringend, Maßnahmen zu ergreifen, um der Ausbreitung solcher KI-gesteuerter Überzeugungsstrategien entgegenzuwirken. Eine Möglichkeit wäre der Einsatz ähnlich personalisierter KI-Systeme, die Fehlinformationen mit faktenbasierten Gegenargumenten kontern.

Zu den Einschränkungen der Studie gehören die zufällige Zuordnung der Teilnehmer zu Pro- oder Contra-Positionen, unabhängig von ihren vorherigen Meinungen, sowie das vorgegebene Strukturformat der Debatten, das von der Dynamik spontaner Online-Diskussionen abweicht.

Eine weitere Einschränkung sei die zeitliche Begrenzung, die die Kreativität und Überzeugungskraft der Teilnehmer potenziell einschränken kann, insbesondere unter der Bedingung der Personalisierung, bei der die Teilnehmer zusätzliche Informationen verarbeiten müssen.

Die umfassende Studie wurde zwischen Dezember 2023 und Februar 2024 durchgeführt und vom Schweizerischen Nationalfonds und der Europäischen Union finanziert. Sie ist als Preprint auf arXiv veröffentlicht.

Anzeige
Anzeige
Community beitreten
Kommt in die DECODER-Community bei Discord,Reddit, Twitter und Co. - wir freuen uns auf euch!

Auch OpenAI-Chef Sam Altman warnte bereits vor der übermenschlichen Überzeugungskraft großer Sprachmodelle: "Ich erwarte, dass KI übermenschliche Persuasion beherrschen wird, lange bevor wir übermenschliche allgemeine Intelligenz haben, was wahrscheinlich zu sehr seltsamen Ergebnissen führen wird."

Unterstütze unsere unabhängige, frei zugängliche Berichterstattung. Jeder Betrag hilft und sichert unsere Zukunft. Jetzt unterstützen:
Banküberweisung
Zusammenfassung
  • Forscher der École Polytechnique Fédérale de Lausanne (EPFL) und der italienischen Fondazione Bruno Kessler haben herausgefunden, dass personalisierte KI-Modelle die menschliche Überzeugungskraft in Debatten deutlich übertreffen können, mit einer um 81,7 Prozent höheren Zustimmung im Vergleich zu menschlichen Debattanten.
  • In der Studie wurden vier verschiedene Debattensituationen untersucht: Mensch gegen Mensch, Mensch gegen KI, Mensch gegen Mensch mit Personalisierung und Mensch gegen personalisiertes KI-Modell.
  • Die Ergebnisse weisen auf mögliche Risiken von KI-gesteuerten Überzeugungsstrategien in Online-Umgebungen hin und unterstreichen die Notwendigkeit für Plattformbetreiber, Maßnahmen gegen die Verbreitung solcher KI-Techniken zu ergreifen, beispielsweise durch den Einsatz von KI-Systemen mit Gegenargumenten.
Quellen
Online-Journalist Matthias ist Gründer und Herausgeber von THE DECODER. Er ist davon überzeugt, dass Künstliche Intelligenz die Beziehung zwischen Mensch und Computer grundlegend verändern wird.
Community beitreten
Kommt in die DECODER-Community bei Discord,Reddit, Twitter und Co. - wir freuen uns auf euch!