Inhalt
summary Zusammenfassung

Laut einer aktuellen Studie stufen Menschen Schlagzeilen, die als "KI-generiert" gekennzeichnet sind, als weniger glaubwürdig ein und teilen sie seltener - selbst wenn die Inhalte wahr sind oder von Menschen erstellt wurden. Sie gehen davon aus, dass die Artikel vollständig von KI verfasst wurden.

Anzeige

Forscher der Universität Zürich haben in zwei Experimenten mit knapp 2.000 Befragten untersucht, wie sich die Kennzeichnung von Schlagzeilen als "KI-generiert" auf die wahrgenommene Genauigkeit der Inhalte und die Bereitschaft zum Teilen auswirkt.

Die Ergebnisse zeigen: Die Kennzeichnung reduzierte die Glaubwürdigkeit und Teilungsbereitschaft, unabhängig davon, ob die Inhalte stimmten und ob sie tatsächlich von KI oder Menschen erstellt wurden. Selbst menschlich verfasste, aber fälschlich als KI-generiert gekennzeichnete Schlagzeilen wurden ebenso skeptisch bewertet wie echte KI-Schlagzeilen.

In einer Umfrage gaben die wenigsten Teilnehmenden an, mit bloßem Auge erkennen zu können, ob ein Artikel menschlich oder maschinell verfasst wurde, und dass sie einer KI zutrauen, korrekte Newsartikel zu schreiben.

Anzeige
Anzeige
Bild: Altay et al.

In der zweiten Studie ging es um die Gründe für dieses Misstrauen. Dazu erklärten die Forscher den Teilnehmenden, was "KI-generiert" bedeutet, von einer schwachen Definition, bei der KI nur Klarheit und Stil verbesserte, bis zu einer starken Definition, bei der KI das Thema wählte und den gesamten Artikel schrieb.

Die Skepsis trat nur auf, wenn die Teilnehmenden keine Definition erhielten oder wenn ihnen die "starke" Definition präsentiert wurde. Daraus schließen die Forscher, dass Menschen bei als KI-generiert gekennzeichneten Schlagzeilen von einer vollständigen Erstellung durch KI ausgehen.

KI-Labels nicht leichtfertig verwenden

Die Studienautoren warnen daher vor einem vereinfachten Einsatz von KI-Labels, da diese auch auf nützliche KI-Inhalte abschreckend wirken könnten. Schädliche KI-Inhalte sollten ihrer Ansicht nach explizit als solche markiert werden, statt sie nur allgemein als KI-generiert zu kennzeichnen. Zudem sei Transparenz über die Bedeutung der Labels wichtig, damit Nutzer:innen keine falschen Annahmen treffen.

Die Ergebnisse fügen sich in ein Bild ein, das auch andere aktuelle Studien zeichnen: Generell stehen Menschen KI-generierten Nachrichten eher skeptisch gegenüber. So zeigte etwa eine Untersuchung, dass die Bereitschaft, KI-generierte und menschlich erstellte Fake News zu teilen, ähnlich hoch ist. Beide wurden aber als weniger glaubwürdig eingeschätzt als echte Nachrichten.

Eine Befragung des Reuters Institute ergab zudem, dass die meisten Menschen KI-generierte Nachrichten für weniger wertvoll halten als von Menschen verfasste Inhalte.

Empfehlung

Expert:innen empfehlen Nachrichtenorganisationen daher einen wohlüberlegten Einsatz von KI primär für unterstützende Tätigkeiten und neue Darstellungsformen. Bei der Inhaltserstellung sei Vorsicht geboten. Entscheidend sei eine transparente Kommunikation über die KI-Nutzung - und dass alle Inhalte, egal ob mit oder ohne KI erstellt, von Menschen überprüft werden. Andernfalls drohe ein Vertrauensverlust des Publikums.

Die Kennzeichnung von KI-Inhalten spielt neben dem Nachrichtenbereich vor allem in den sozialen Medien eine Rolle. Meta gibt seinen Nutzer:innen seit einiger Zeit die Möglichkeit, bei jedem Beitrag eine "AI Info" hinzuzufügen.

Meta arbeitet an der Implementierung von
Meta will KI-Bilder und -Content besser identifizieren und kenntlich machen | Bild: Meta AI

Aus dieser geht jedoch trotz Umbenennung nicht hervor, wie viel KI zum Bild beigetragen hat, ob es etwa vollständig generiert, der Himmel verschönert oder lediglich kleinere Störelemente entfernt wurden.

Anzeige
Anzeige
Community beitreten
Kommt in die DECODER-Community bei Discord,Reddit, Twitter und Co. - wir freuen uns auf euch!
Unterstütze unsere unabhängige, frei zugängliche Berichterstattung. Jeder Betrag hilft und sichert unsere Zukunft. Jetzt unterstützen:
Banküberweisung
Zusammenfassung
  • Eine Studie der Universität Zürich zeigt, dass Menschen Schlagzeilen, die als "KI-generiert" gekennzeichnet sind, als weniger glaubwürdig einstufen und seltener teilen - selbst wenn die Inhalte wahr sind oder von Menschen erstellt wurden.
  • Die Skepsis trat vor allem auf, wenn die Teilnehmenden keine Definition von "KI-generiert" erhielten oder wenn ihnen erklärt wurde, dass KI das Thema wählte und den gesamten Artikel schrieb. Daraus schließen die Forscher, dass Menschen bei KI-Labels von einer vollständigen Erstellung durch KI ausgehen.
  • Expert:innen empfehlen Nachrichtenorganisationen einen wohlüberlegten Einsatz von KI, primär für unterstützende Tätigkeiten. Bei der Inhaltserstellung sei Vorsicht geboten. Entscheidend seien Transparenz über die KI-Nutzung und eine Überprüfung aller Inhalte durch Menschen, um einen Vertrauensverlust zu vermeiden.
Quellen
Jonathan ist Technikjournalist und beschäftigt sich stark mit Consumer Electronics. Er erklärt seinen Mitmenschen, wie KI bereits heute nutzbar ist und wie sie im Alltag unterstützen kann.
Community beitreten
Kommt in die DECODER-Community bei Discord,Reddit, Twitter und Co. - wir freuen uns auf euch!