Der Bezirksstaatsanwalt von San Francisco, David Chiu, hat Klage auf Schließung von 16 der meistbesuchten Websites eingereicht, die Deepfake-Pornografie von Erwachsenen und Minderjährigen ohne Zustimmung der Betroffenen produzieren und verbreiten.
San Francisco geht rechtlich gegen 16 Websites vor, die nicht-einvernehmliche Deepfake-Pornografie erstellen und verbreiten. Staatsanwalt David Chiu teilt auf X mit, dass er die Betreiber der Websites verklagt, um die Seiten vollständig zu schließen.
Erwirft den Websitebetreibern vor, gegen kalifornische und bundesstaatliche Gesetze zu verstoßen, die Deepfake-Pornografie, Rachepornografie und Kinderpornografie verbieten. Hinter den Websites stehen laut Klage Einzelpersonen und Unternehmen aus Kalifornien, New Mexico, Großbritannien und Estland.
In den ersten sechs Monaten dieses Jahres wurden die 16 in der Klage genannten Websites laut Chius Recherchen insgesamt 200 Millionen Mal besucht.
Auf X schreibt Chiu: "Diese Untersuchung hat uns in die dunkelsten Ecken des Internets geführt, und ich bin absolut entsetzt über die Frauen und Mädchen, die diese Ausbeutung ertragen mussten. Es ist ein großes, facettenreiches Problem, das wir als Gesellschaft so schnell wie möglich lösen müssen."
Chiu räumt gegenüber der New York Times ein, dass die Schließung der Seiten als Ansatz nach dem "Whac-a-Mole"-Prinzip angesehen werden könnte, da weitere entsprechende Websites auftauchen könnten. Diese Konstellation könne aber in der Rechtsprechung berücksichtigt werden, um schneller handeln zu können.
Deepfakes haben ihren Ursprung in Pornografie ohne Zustimmung
Deepfakes tauchten erstmals 2017 auf, 7, als ein anonymer Reddit-Nutzer namens "deepfakes" gefälschte Pornos von berühmten Schauspielerinnen wie Gal Gadot veröffentlichte. Sie haben ihren Ursprung in pornografischen Bildern und Videos ohne Zustimmung der Betroffenen. Mit den neuesten Tools kann es jeden und jede erwischen - dafür reicht meist ein einzelnes Bild als Vorlage.
Zwar werden Deepfakes auch für künstlerische Zwecke oder Unterhaltung eingesetzt. Aber eine Untersuchung des niederländischen Unternehmens Deeptrace zeigte schon 2019, dass 96 Prozent von 15.000 untersuchten Deepfake-Videos Pornos sind. Die Opfer sind fast ausschließlich Frauen.
Eine Studie des Beratungsunternehmens The Human Factor hat das wachsende Problem von KI-generierten Nacktbildern Minderjähriger, sogenannten Deepfake Nudes, untersucht, die von Schülern erstellt und verbreitet werden. In den USA gab es mehrere Vorfälle, bei denen Schüler mithilfe von KI-Bildgeneratoren gefälschte Nacktbilder von Mitschülern erstellten und verbreiteten.