Inhalt
summary Zusammenfassung

KI-gefälschte Nacktfotos erfordern nach Ansicht des Weißen Hauses eine eigenständige gesetzliche Regelung. Die US-Regierung bezog Stellung, nachdem KI-gefälschte Nacktfotos von Taylor Swift bei X aufgetaucht waren.

Anzeige

Das Weiße Haus hat nun auf die Ereignisse reagiert. In einer Stellungnahme bezeichnete Pressesprecherin Karine Jean-Pierre die Vorfälle als „alarmierend“ und bekräftigte die Notwendigkeit gesetzlicher Maßnahmen.

Sie betonte die Rolle der sozialen Medien bei der Durchsetzung ihrer eigenen Regeln und wies auf die überwältigenden Auswirkungen auf Frauen und Mädchen hin, die das Hauptziel von Online-Belästigung und -Missbrauch seien.

Die Sprecherin betonte, dass solche gefälschten Bilder zu den KI-Problemen gehörten, die die Biden-Administration als vorrangig eingestuft habe. Sie erforderten eine entsprechende Gesetzgebung. Wie diese aussehen könnte, ließ Jean-Pierre offen.

Anzeige
Anzeige

Gefakte KI-Nacktbilder von Taylor Swift: X in der Kritik

Auslöser für die Aussagen von Jean-Pierre waren KI-generierte explizite Bilder der Sängerin Taylor Swift auf der Social-Media-Plattform X (ehemals Twitter).

Ein Post erhielt mehr als 45 Millionen Aufrufe, 24.000 Reposts und Hunderttausende Likes und Bookmarks, bevor das Konto des verifizierten Nutzers, der die Bilder geteilt hatte, wegen Verstoßes gegen die Richtlinien der Plattform gesperrt wurde.

Die Bilder verbreiteten sich weiter und wurden auf anderen Accounts erneut gepostet. Nach Recherchen von 404 Media könnten die Bilder ursprünglich in einer Gruppe auf Telegram entstanden sein. Viele sind immer noch online.

Die Swift-Fangemeinde kritisierte X heftig dafür, dass viele Beiträge so lange sichtbar waren. Die Fans überfluteten die Hashtags, mit denen die Bilder verbreitet wurden, mit echten Clips von Swifts Auftritten, um die gefälschten Bilder zu verdecken.

X reagierte bisher lediglich mit dem Hinweis, dass die Verbreitung von Nacktbildern ohne Zustimmung auf der Plattform streng verboten sei. Auf den Vorfall mit Taylor Swift geht das X-Safety-Team nicht ein.

Empfehlung

Die Verbreitung von Deepfake-Pornografie und KI-generierten Nacktbildern realer Personen stellt generell eine große Herausforderung dar, nicht nur für bekannte Personen: In der spanischen Stadt Almendralejo sollen mehr als 20 Mädchen KI-generierte Nacktbilder von sich erhalten haben. Das jüngste Opfer war erst 11 Jahre alt.

Bei den nackten Körpern auf KI-Fake-Bildern handelt es sich um von der KI generierte Darstellungen und nicht um die tatsächlichen Körper der betroffenen Personen. Dennoch kann nach außen der Eindruck entstehen, die Aufnahmen seien echt. Eine psychische Beeinträchtigung und mögliche Rufschädigung wird auch durch solche Fake-Fotos erreicht.

Anzeige
Anzeige
Community beitreten
Kommt in die DECODER-Community bei Discord,Reddit, Twitter und Co. - wir freuen uns auf euch!
Unterstütze unsere unabhängige, frei zugängliche Berichterstattung. Jeder Betrag hilft und sichert unsere Zukunft. Jetzt unterstützen:
Banküberweisung
Zusammenfassung
  • KI-gefälschte Nacktfotos wie die kürzlich aufgetauchten von Taylor Swift haben das Weiße Haus veranlasst, die Notwendigkeit einer gesetzlichen Regelung für solche Fälle zu betonen.
  • Die US-Regierung bezeichnete die Vorfälle als "alarmierend" und betonte die Rolle der sozialen Medien bei der Durchsetzung ihrer eigenen Regeln, insbesondere im Hinblick auf die Auswirkungen auf Frauen und Mädchen, die die Hauptzielgruppe von Online-Belästigung und -Missbrauch sind.
  • Die Pressesprecherin des Weißen Hauses, Karine Jean-Pierre, ging nicht näher darauf ein, wie ein solches Gesetz genau aussehen könnte, betonte aber, dass sie zu den KI-Problemen gehören, die die Biden-Administration als vorrangig eingestuft habe.
Online-Journalist Matthias ist Gründer und Herausgeber von THE DECODER. Er ist davon überzeugt, dass Künstliche Intelligenz die Beziehung zwischen Mensch und Computer grundlegend verändern wird.
Community beitreten
Kommt in die DECODER-Community bei Discord,Reddit, Twitter und Co. - wir freuen uns auf euch!