Inhalt
newsletter Newsletter
DEEP MINDS Podcast
Podcast über Künstliche Intelligenz und Wissenschaft
Bewusstsein, Kognition und Künstliche Intelligenz | DEEP MINDS #10

Einer Studie des MIT zufolge haben Deepfake-Videos im Vergleich zu Fake-Texten nur eine minimal höhere Wahrscheinlichkeit, menschliches Verhalten und politische Ansichten zu beeinflussen.

Audio- und Video-Deepfakes sind ein Symptom des rasanten Fortschritts bei synthetischen Medien generiert mit Künstlicher Intelligenz. Häufig wird ihr Risikopotenzial beschrieben, etwa für Betrugsdelikte, sogar bei Banküberfällen, Falschinformationen und bei sexuellem Missbrauch.

Zumindest bei Betrug und Manipulation im politischen Kontext gibt die Studie „The (minimal) persuasive advantage of political video over text“ des Massachusetts Institute of Technology (MIT) jetzt eine gewisse Entwarnung.

In ihrer Arbeit untersuchten die Forschenden, ob manipulierte Videoclips stärkere Auswirkungen auf Menschen haben als textbasierte Fake-News-Aussagen. Das Ergebnis widerlegt bisherige Annahmen, dass Videos als Informationsquelle weitaus überzeugender sind als Texte.

Anzeige
Unterstütze unsere unabhängige, frei zugängliche Berichterstattung. Jeder Betrag hilft und sichert unsere Zukunft. Jetzt unterstützen:
Banküberweisung

Höhere Glaubhaftigkeit führt nicht automatisch zu stärkerer Manipulation

Mit mehr als 7500 Proband:innen aus unterschiedlichen Regionen der USA ist die MIT-Untersuchung die bislang umfangreichste Studie zum Meinungsbildungspotenzial von Deepfakes. In einem Experiment teilten die Forschenden die Teilnehmenden in drei verschiedene Gruppen ein.

Die erste Gruppe bekam ein zufällig ausgewähltes Video mit politischem Inhalt zu sehen, die zweite Gruppe erhielt die Transkription dieses zufällig ausgewählten Videos, während die dritte Gruppe – die Kontrollgruppe – keinerlei Material bekam. Im zweiten Schritt sollten die Teilnehmenden in einem Fragebogen die Glaubwürdigkeit der jeweiligen Text- oder Videobotschaften beurteilen, und ob sie den enthaltenen Aussagen zustimmen.

Die MIT-Forschenden kamen nach der Auswertung der Fragebögen zu dem Ergebnis, dass „sehen“ in der Tat meist „glauben“ bedeutet. Die Proband:innen schätzten ein Ereignis glaubhafter ein, wenn sie die Information als Video anstatt in Textform konsumierten.

Doch hinsichtlich der Überzeugungskraft war der Unterschied zwischen Video und Text weniger stark ausgeprägt. Bei Verhalten oder Meinung der Proband:innen ließen sich sogar nur minimale Änderungen feststellen.

„Nur weil Video glaubhafter ist, bedeutet das nicht, dass Menschen leichter überzeugt werden können“, fasste Adam Berinsky, einer der MIT-Forscher, das Ergebnis zusammen. Die Forschenden weisen in ihrem Bericht ebenso darauf hin, dass sich die Auswirkungen im realen Leben stärker vom Experiment unterscheiden könnten.

Empfehlung

Einerseits seien Fake News in Wirklichkeit keine bloße Transkription von audiovisuellem Material, sondern in Form von Artikeln oder Kommentaren strukturiert. Andererseits sei es tendenziell möglich, dass Videos mehr Aufmerksamkeit auf sich ziehen als Text und negative Effekte entsprechend stärker skalierten.

Das bedeute beispielsweise, dass Social-Media-Beiträge in Videoform stärker wahrgenommen würden und so das minimal höhere Manipulationspotenzial von Deepfake-Videos Verhalten und Meinungen der Betrachter:innen daher dennoch stärker beeinflussen könnte als Fake-Texte.

Deepfakes sind nicht harmlos

Seit pornografische Deepfakes Ende 2017 stärker ins öffentliche Bewusstsein vordrangen, warnen Politiker:innen und Forschende immer wieder vor den Risiken. Die deutsche Bundesregierung etwa bezeichnete Deepfakes 2019 als potenziell „große Gefahr für Gesellschaft und Politik“, die aber nicht überbewertet werden dürfe, weil allein die Überbewertung zu einem Vertrauensverlust in Medien führen könne. Nicht das Vertrauen in eine Falschinformation wäre dann das Problem, sondern das verlorengegangene Vertrauen in korrekte Informationen – Orientierungslosigkeit wäre das Resultat.

Ein Reddit-Nutzer erstellt mit einfachen Mitteln Fake-Pornos, in denen die Gesichter von Promis jene der realen Darsteller überlagern.
Ein Beitrag mit Folgen: Der Reddit-Nutzer „deepfakes“ meldete sich Ende 2017 mit ersten KI-Fake-Pornos bei Reddit zu Wort. In den Folgejahren entwickelte sich Deepfake-Technik mit hohem Tempo weiter. | Bild: MIXED (Screenshot)

Durch das Internet können Deepfakes zudem innerhalb von Sekundenschnelle um den Globus verbreitet werden und dabei Millionen von Menschen erreichen. Die EU etwa denkt daher über eine Kennzeichnungspflicht für Deepfakes nach.

Anzeige
Unterstütze unsere unabhängige, frei zugängliche Berichterstattung. Jeder Betrag hilft und sichert unsere Zukunft. Jetzt unterstützen:
Banküberweisung
Community beitreten
Kommt in die DECODER-Community bei Discord,Reddit, Twitter und Co. - wir freuen uns auf euch!

In einer kürzlich veröffentlichten EU-Studie zu Deepfakes befassten sich Forschende aus den Niederlanden, Tschechien und Deutschland mit den Risiken KI-gefälschter Medien und mit möglichen Lösungen. Die Forschenden gehen davon aus, dass sich „Individuen und Gesellschaften künftig immer häufiger mit visuellen Desinformationen konfrontiert sehen“ und fordern insbesondere eine bessere Aufklärung.

Weiterlesen über Deepfakes:

Unterstütze unsere unabhängige, frei zugängliche Berichterstattung. Jeder Betrag hilft und sichert unsere Zukunft. Jetzt unterstützen:
Banküberweisung
Sarah ist Mathematikerin, Programmiererin und Teilzeit-Philosophin. Ihr Fokus liegt auf den ethischen und gesellschaftlichen Zukunftsfragen von Künstlicher Intelligenz.
Co-Autor: Matthias Bastian
Community beitreten
Kommt in die DECODER-Community bei Discord,Reddit, Twitter und Co. - wir freuen uns auf euch!