KI und Gesellschaft

Nutzer unterscheiden laut Studie nicht zwischen KI-generierten und menschlichen Fake News

Matthias Bastian
hand-drawn editorial illustration of a person trapped in a bubble or chamber with news headlines bouncing around the walls. Some headlines glow with a digital aura, and others have a more organic glow, but inside the bubble, they look the same, representing the echo chamber effect and how it makes distinguishing the source of news even harder. The bubble is semi-transparent, revealing a distorted view of the outside world, symbolizing the isolation and the skewed perception of reality caused by echo chambers. This image, in widescreen resolution, captures the concept of information silos and the challenge they pose in discerning truth from falsehood in the digital age.

Midjourney prompted by THE DECODER

Eine Studie hat untersucht, wie Nutzer auf von Menschen und KI generierte Fake News reagieren und identifiziert sozioökonomische Faktoren, die beeinflussen, wer auf KI-generierte Fake News hereinfällt.

In einer aktuellen Studie haben Forschende der Universität Lausanne und des Munich Center for Machine Learning der Ludwig-Maximilians-Universität München untersucht, wie Nutzer auf Fake News reagieren, die entweder von Menschen oder von GPT-4 generiert wurden.

Im Fokus standen die Fragen, wie genau Nutzer diese Fake News wahrnehmen, inwieweit sie bereit sind, diese zu teilen und welche sozioökonomischen Merkmale dazu führen, dass Nutzer auf KI-generierte Fake News hereinfallen. Die Studie will dazu beitragen, wirksame Strategien zur Verringerung der Risiken von KI-generierten Fake News zu entwickeln.

KI-generierte und menschliche Fake News liegen gleichauf

An der Studie nahmen 988 Personen teil, die 20 Fake News im Kontext der COVID-19-Pandemie bewerteten. Die von Menschen generierten Fake News wurden von unabhängigen Faktencheck-Websites wie PolitiFact und Snopes gesammelt.

Die KI-generierten Fake News wurden mit GPT-4 erstellt, wobei GPT-4 angewiesen wurde, falsche Aussagen über COVID-19 zu generieren ("Write an incorrect statement about COVID-19 and put it in quotation marks"), was noch immer funktioniert.

Beispiele für Fake News, wie sie den Teilnehmenden vorgelegt wurden. | Bild: Bashardoust et al.

In einem Online-Experiment wurden die Teilnehmer gebeten, die wahrgenommene Genauigkeit von Fake-News-Artikeln auf einer 5-Punkte-Likert-Skala zu bewerten und ihre Bereitschaft anzugeben, diese in sozialen Medien zu teilen (würde teilen, würde nicht teilen, weiß nicht).

Die Teilnehmenden wussten nicht, dass es sich bei den Inhalten um Fake News handelte und sie teils von einer KI erstellt worden waren. Die Ergebnisse der Befragung zeigen, dass KI-generierte Fake News als leicht weniger akkurat wahrgenommen werden als von Menschen generierte Fake News.

Die Bewertung des Wahrheitsgehalts von Fake News. Hier wurden Fake News, die von Menschen geschrieben wurden, als leicht glaubhafter eingeschätzt als KI-generierte News. | Bild: Bashardoust et al.

In beiden Fällen waren rund zwölf Prozent der Teilnehmenden bereit, die Fake News in Social Media zu teilen. Die Forscher fanden keinen statistisch signifikanten Unterschied in der Bereitschaft, von Menschen generierte Fake News im Vergleich zu KI-generierten Fake News zu teilen.

Die Forscher fanden bei der Bereitschaft, Fake News zu teilen, keinen Unterschied zwischen KI-News und menschlichen News. | Bild: Bashardoust et al.

Verschiedene sozioökonomische Faktoren wie Alter, politische Orientierung und kognitive Reflexionsfähigkeit beeinflussten, ob Nutzer KI-generierte Fake News eher für echt hielten. Konservative Teilnehmer neigten beispielsweise eher dazu, KI-generierten Fake News Glauben zu schenken.

Die Studie legt nahe, dass neue Kennzeichnungen notwendig sind, damit Nutzer echte von falschen Inhalten unterscheiden können. Außerdem sei es wichtig, die Menschen über die Risiken von KI-generierten Fake News aufzuklären und möglicherweise regulatorische Maßnahmen zu ergreifen, um bestimmte gefährdete Gruppen zu schützen.

Quellen: