KI-gefälschte Nacktfotos erfordern nach Ansicht des Weißen Hauses eine eigenständige gesetzliche Regelung. Die US-Regierung bezog Stellung, nachdem KI-gefälschte Nacktfotos von Taylor Swift bei X aufgetaucht waren.
Das Weiße Haus hat nun auf die Ereignisse reagiert. In einer Stellungnahme bezeichnete Pressesprecherin Karine Jean-Pierre die Vorfälle als „alarmierend“ und bekräftigte die Notwendigkeit gesetzlicher Maßnahmen.
Sie betonte die Rolle der sozialen Medien bei der Durchsetzung ihrer eigenen Regeln und wies auf die überwältigenden Auswirkungen auf Frauen und Mädchen hin, die das Hauptziel von Online-Belästigung und -Missbrauch seien.
Die Sprecherin betonte, dass solche gefälschten Bilder zu den KI-Problemen gehörten, die die Biden-Administration als vorrangig eingestuft habe. Sie erforderten eine entsprechende Gesetzgebung. Wie diese aussehen könnte, ließ Jean-Pierre offen.
Gefakte KI-Nacktbilder von Taylor Swift: X in der Kritik
Auslöser für die Aussagen von Jean-Pierre waren KI-generierte explizite Bilder der Sängerin Taylor Swift auf der Social-Media-Plattform X (ehemals Twitter).
Ein Post erhielt mehr als 45 Millionen Aufrufe, 24.000 Reposts und Hunderttausende Likes und Bookmarks, bevor das Konto des verifizierten Nutzers, der die Bilder geteilt hatte, wegen Verstoßes gegen die Richtlinien der Plattform gesperrt wurde.
Die Bilder verbreiteten sich weiter und wurden auf anderen Accounts erneut gepostet. Nach Recherchen von 404 Media könnten die Bilder ursprünglich in einer Gruppe auf Telegram entstanden sein. Viele sind immer noch online.
Die Swift-Fangemeinde kritisierte X heftig dafür, dass viele Beiträge so lange sichtbar waren. Die Fans überfluteten die Hashtags, mit denen die Bilder verbreitet wurden, mit echten Clips von Swifts Auftritten, um die gefälschten Bilder zu verdecken.
X reagierte bisher lediglich mit dem Hinweis, dass die Verbreitung von Nacktbildern ohne Zustimmung auf der Plattform streng verboten sei. Auf den Vorfall mit Taylor Swift geht das X-Safety-Team nicht ein.
Die Verbreitung von Deepfake-Pornografie und KI-generierten Nacktbildern realer Personen stellt generell eine große Herausforderung dar, nicht nur für bekannte Personen: In der spanischen Stadt Almendralejo sollen mehr als 20 Mädchen KI-generierte Nacktbilder von sich erhalten haben. Das jüngste Opfer war erst 11 Jahre alt.
Bei den nackten Körpern auf KI-Fake-Bildern handelt es sich um von der KI generierte Darstellungen und nicht um die tatsächlichen Körper der betroffenen Personen. Dennoch kann nach außen der Eindruck entstehen, die Aufnahmen seien echt. Eine psychische Beeinträchtigung und mögliche Rufschädigung wird auch durch solche Fake-Fotos erreicht.