Inhalt
summary Zusammenfassung

Eine Studie hat untersucht, wie Nutzer auf von Menschen und KI generierte Fake News reagieren und identifiziert sozioökonomische Faktoren, die beeinflussen, wer auf KI-generierte Fake News hereinfällt.

Anzeige

In einer aktuellen Studie haben Forschende der Universität Lausanne und des Munich Center for Machine Learning der Ludwig-Maximilians-Universität München untersucht, wie Nutzer auf Fake News reagieren, die entweder von Menschen oder von GPT-4 generiert wurden.

Im Fokus standen die Fragen, wie genau Nutzer diese Fake News wahrnehmen, inwieweit sie bereit sind, diese zu teilen und welche sozioökonomischen Merkmale dazu führen, dass Nutzer auf KI-generierte Fake News hereinfallen. Die Studie will dazu beitragen, wirksame Strategien zur Verringerung der Risiken von KI-generierten Fake News zu entwickeln.

KI-generierte und menschliche Fake News liegen gleichauf

An der Studie nahmen 988 Personen teil, die 20 Fake News im Kontext der COVID-19-Pandemie bewerteten. Die von Menschen generierten Fake News wurden von unabhängigen Faktencheck-Websites wie PolitiFact und Snopes gesammelt.

Anzeige
Anzeige

Die KI-generierten Fake News wurden mit GPT-4 erstellt, wobei GPT-4 angewiesen wurde, falsche Aussagen über COVID-19 zu generieren ("Write an incorrect statement about COVID-19 and put it in quotation marks"), was noch immer funktioniert.

Beispiele für Fake News, wie sie den Teilnehmenden vorgelegt wurden. | Bild: Bashardoust et al.

In einem Online-Experiment wurden die Teilnehmer gebeten, die wahrgenommene Genauigkeit von Fake-News-Artikeln auf einer 5-Punkte-Likert-Skala zu bewerten und ihre Bereitschaft anzugeben, diese in sozialen Medien zu teilen (würde teilen, würde nicht teilen, weiß nicht).

Die Teilnehmenden wussten nicht, dass es sich bei den Inhalten um Fake News handelte und sie teils von einer KI erstellt worden waren. Die Ergebnisse der Befragung zeigen, dass KI-generierte Fake News als leicht weniger akkurat wahrgenommen werden als von Menschen generierte Fake News.

Die Bewertung des Wahrheitsgehalts von Fake News. Hier wurden Fake News, die von Menschen geschrieben wurden, als leicht glaubhafter eingeschätzt als KI-generierte News. | Bild: Bashardoust et al.

In beiden Fällen waren rund zwölf Prozent der Teilnehmenden bereit, die Fake News in Social Media zu teilen. Die Forscher fanden keinen statistisch signifikanten Unterschied in der Bereitschaft, von Menschen generierte Fake News im Vergleich zu KI-generierten Fake News zu teilen.

Die Forscher fanden bei der Bereitschaft, Fake News zu teilen, keinen Unterschied zwischen KI-News und menschlichen News. | Bild: Bashardoust et al.

Verschiedene sozioökonomische Faktoren wie Alter, politische Orientierung und kognitive Reflexionsfähigkeit beeinflussten, ob Nutzer KI-generierte Fake News eher für echt hielten. Konservative Teilnehmer neigten beispielsweise eher dazu, KI-generierten Fake News Glauben zu schenken.

Empfehlung

Die Studie legt nahe, dass neue Kennzeichnungen notwendig sind, damit Nutzer echte von falschen Inhalten unterscheiden können. Außerdem sei es wichtig, die Menschen über die Risiken von KI-generierten Fake News aufzuklären und möglicherweise regulatorische Maßnahmen zu ergreifen, um bestimmte gefährdete Gruppen zu schützen.

Anzeige
Anzeige
Community beitreten
Kommt in die DECODER-Community bei Discord,Reddit, Twitter und Co. - wir freuen uns auf euch!
Unterstütze unsere unabhängige, frei zugängliche Berichterstattung. Jeder Betrag hilft und sichert unsere Zukunft. Jetzt unterstützen:
Banküberweisung
Zusammenfassung
  • Eine Studie untersucht die Reaktionen von Nutzern auf von Menschen und KI-generierte Fake News und identifiziert sozioökonomische Faktoren, die beeinflussen, wer eher auf KI-generierte Fake News hereinfällt.
  • Die Ergebnisse zeigen, dass KI-generierte Fake News als etwas weniger akkurat wahrgenommen werden als von Menschen generierte Fake News, dass aber die Bereitschaft, sie in sozialen Medien zu teilen, in beiden Fällen ähnlich ist. Konservative Teilnehmende hielten KI-Fake News eher für wahr.
  • Die Studie empfiehlt neue Kennzeichnungen, um wahre von falschen Inhalten zu unterscheiden, und betont die Notwendigkeit, die Menschen über die Risiken von KI-generierten Fake News aufzuklären und möglicherweise regulatorische Maßnahmen zu ergreifen.
Quellen
Online-Journalist Matthias ist Gründer und Herausgeber von THE DECODER. Er ist davon überzeugt, dass Künstliche Intelligenz die Beziehung zwischen Mensch und Computer grundlegend verändern wird.
Community beitreten
Kommt in die DECODER-Community bei Discord,Reddit, Twitter und Co. - wir freuen uns auf euch!