Inhalt
newsletter Newsletter
DEEP MINDS Podcast
Podcast über Künstliche Intelligenz und Wissenschaft
KI bei der Bundeswehr und der BWI | DEEP MINDS #16

In einer EU-Studie befassen sich Forschende aus den Niederlanden, Tschechien und Deutschland mit den Risiken von Deepfakes – und möglichen Lösungen.

KI-gefälschten Bildern, Videos oder Tonaufnahmen, sogenannten Deepfakes, wird im Vergleich zu irreführenden Texten gemeinhin ein besonders hohes Täuschungspotenzial unterstellt, da die audiovisuelle Überzeugungskraft von Multimedia-Inhalten ungleich größer ist als die von Buchstaben.

Im Vorfeld der US-Wahlen etwa warnten Politiker:innen vor Wahlmanipulation mit Deepfakes, allerdings blieb die befürchtete Deepfake-Schwemme aus. Auch die Bundesregierung bezeichnete Deepfakes 2019 als potenziell "große Gefahr für Gesellschaft und Politik". Die Gefahren von Deepfakes dürften allerdings nicht überbewertet werden, da allein diese Überbewertung zu einem medialen Vertrauensverlust in der Bevölkerung führen könne.

EU-Forschende warnen vor Deepfake-Pornographie, falschen Geständnissen und Fake-Stellungnahmen

In der Studie „Tackling deepfakes in European policy“ untersuchten Forschende des niederländischen Rathenau-Instituts unter Beteiligung des Karlsruher Instituts für Technologie (KIT) und des Fraunhofer-Instituts für System- und Innovationsforschung (ISI) den Stand bei Deepfakes.

Anzeige
Anzeige

Sie kommen unter anderem zu dem Schluss, dass Deepfake-Techniken zugänglicher, günstiger und besser werden, was sie in Kombination mit der zugespitzten, audiovisuellen Kommunikation in sozialen Medien als Risiko einstufen.

Die Forschenden sehen potenziell negative Auswirkungen von Deepfakes auf persönlicher Ebene und für Organisationen oder die Gesellschaft. | Bild: Rathenau Institut
Die Forschenden sehen potenziell negative Auswirkungen von Deepfakes auf individueller Ebene und für Organisationen oder die Gesellschaft. | Bild: Rathenau Institut

„Wir haben es mit einer neuen Generation digital manipulierter Medieninhalte zu tun, die seit einigen Jahren immer kostengünstiger und einfacher zu erzeugen sind und vor allem täuschend echt aussehen können“, sagt Dr. Jutta Jahnel. Sie befasst sich am Institut für Technikfolgenabschätzung und Systemanalyse (ITAS) des KIT mit der gesellschaftlichen Dimension lernender Systeme.

Die Forschenden stellen Deepfake-Risiken im Kontext gefälschter pornografischer Inhalte heraus, die fast ausschließlich Frauen betreffen, bei manipulierten Audio-Clips etwa für gefälschte Schuldeingeständnisse oder bei falschen Video-Statements von Politiker:innen, die etwa in sozialen Netzwerken zirkulieren.

Mögliche negative Folgen bestünden für einzelne Personen, Organisationen und die Gesellschaft insgesamt, etwa durch Image-Schäden, psychische Probleme, Erpressung, die Verstärkung von Stereotypen und ein genereller Vertrauensverlust in Institutionen.

Wie lösen wir das Deepfake-Problem?

Die Forschenden wollen sich nicht auf technische Lösungen für die Deepfake-Detektion verlassen, bei denen sich ein Katz-und-Maus-Spiel andeutet. Der Deepfake-Experte Hao Li etwa, der selbst an Erkennungsalgorithmen für Deepfakes arbeitet, geht davon aus, dass Deepfakes zeitnah eine audiovisuelle Perfektion erreichen, ab der sie nicht mehr von originalen Videos, Bildern und Audioaufzeichnungen zu unterscheiden sind.

Empfehlung

Der Lösungsvorschlag der EU-Forschenden folgt daher Regulierung und Aufklärung: „Um die öffentliche Meinung manipulieren zu können, müssen Fakes nicht nur hergestellt, sondern vor allem auch verbreitet werden“, sagt Jahnel. „Bei der Regelung zum Umgang mit Deepfakes müssen wir daher in erster Linie bei Internetplattformen und Medienunternehmen ansetzen.“

In jedem Fall gehen die Forschenden davon aus, dass sich „Individuen und Gesellschaften künftig immer häufiger mit visuellen Desinformationen konfrontiert sehen“. Es sei daher essenziell, Menschen beizubringen, die Glaubwürdigkeit von Medieninhalten kritisch zu hinterfragen.

Ähnlich sieht es übrigens Ian Goodfellow, der Erfinder von GA-Netzwerken, der KI-Technologie, die Deepfakes ermöglicht. Goodfellow arbeitet heute in leitender Position in Apples KI-Abteilung.

2017, als von Deepfakes noch nicht die Rede war, sah es Goodfellow als „historischen Glücksfall“ an, dass sich die Menschheit in den letzten Jahrzehnten weitgehend auf Videos verlassen konnte, um Geschehnisse zu verifizieren. In Zukunft dürfe man Bildern und Videos im Netz nicht mehr automatisch Glauben schenken, da KI-Systeme den Fälschungsvorgang beschleunigten.

Anzeige
Community beitreten
Kommt in die DECODER-Community bei Discord,Reddit, Twitter und Co. - wir freuen uns auf euch!
Anzeige
Community beitreten
Kommt in die DECODER-Community bei Discord,Reddit, Twitter und Co. - wir freuen uns auf euch!

Weiterlesen über Deepfakes:

Unterstütze unsere unabhängige, frei zugängliche Berichterstattung. Jeder Betrag hilft und sichert unsere Zukunft. Jetzt unterstützen:
Banküberweisung
Online-Journalist Matthias ist Gründer und Herausgeber von THE DECODER. Er ist davon überzeugt, dass Künstliche Intelligenz die Beziehung zwischen Mensch und Computer grundlegend verändern wird.
Community beitreten
Kommt in die DECODER-Community bei Discord,Reddit, Twitter und Co. - wir freuen uns auf euch!