Inhalt
summary Zusammenfassung

Zwei Teenager aus Miami wurden angeklagt, KI-generierte Nacktbilder von Mitschülern erstellt und ohne deren Zustimmung weitergegeben zu haben.

Zwei Teenager im Alter von 13 und 14 Jahren aus Miami, Florida, wurden am 22. Dezember 2023 verhaftet, weil sie angeblich KI-generierte Nacktbilder von männlichen und weiblichen Mitschülern im Alter von 12 und 13 Jahren erstellt und ohne deren Zustimmung geteilt haben sollen. Das berichtet WIRED unter Berufung auf Polizeiberichte.

Den Berichten zufolge sollen die Jugendlichen eine "KI-Anwendung" verwendet haben, um die gefälschten expliziten Bilder zu erstellen. Der Name der App wird nicht genannt.

Die Jugendlichen wurden wegen Verbrechen dritten Grades angeklagt, auf derselben Stufe wie Autodiebstahl oder Freiheitsberaubung. Die Klage bezieht sich auf ein Gesetz von Florida aus dem Jahr 2022, das Belästigung durch Deepfake-Bilder eindämmen soll.

Anzeige
Anzeige

Bisher haben sich weder die Eltern der beschuldigten Jungen noch der zuständige Ermittler und Staatsanwalt zu dem Fall geäußert.

Ähnliche Fälle sind bereits in den USA und in Europa bekannt geworden. Der Fall in Florida soll jedoch die erste bekannte Verhaftung und strafrechtliche Anklage wegen angeblicher KI-generierter Nacktbilder sein.

KI-Bildgeneratoren führen zu mehr Kindesmissbrauch

Die auf KI-Fake-Bildern dargestellten nackten Körper sind keine Aufnahmen echter Körper, sondern durch Künstliche Intelligenz erschaffene Nachbildungen.

Trotzdem können diese Bilder so wirken, als wären sie authentisch, was zu psychischen Belastungen und einem potenziellen Schaden für den Ruf der abgebildeten Personen führen kann.

Das Weiße Haus reagierte kürzlich auf KI-gefälschte Nacktfotos von Taylor Swift: Die US-Regierung bezeichnete diesen und ähnliche Vorfälle als "alarmierend". Es benötige eigenständige gesetzliche Regeln.

Empfehlung

Die Internet Watch Foundation (IWF) meldete Ende Oktober 2023, dass KI-Bildgeneratoren zudem zu einem Anstieg an Material über sexuellen Kindesmissbrauch (child sexual abuse material, CSAM) führen.

Bereits Ende Juni 2023 hatte das National Center for Missing and Exploited Children in den USA von einem "starken Anstieg" von KI-generierten Missbrauchsbildern berichtet. Die Bilder würden Ermittlungen erschweren und könnten die Identifizierung von Opfern behindern.

Anzeige
Community beitreten
Kommt in die DECODER-Community bei Discord,Reddit, Twitter und Co. - wir freuen uns auf euch!
Anzeige
Community beitreten
Kommt in die DECODER-Community bei Discord,Reddit, Twitter und Co. - wir freuen uns auf euch!
Unterstütze unsere unabhängige, frei zugängliche Berichterstattung. Jeder Betrag hilft und sichert unsere Zukunft. Jetzt unterstützen:
Banküberweisung
Zusammenfassung
  • Zwei Teenager aus Miami, Florida, wurden angeklagt, KI-generierte Nacktbilder von Mitschülern erstellt und ohne deren Einverständnis veröffentlicht zu haben.
  • Die 13- und 14-Jährigen nutzten eine nicht genannte KI-Anwendung, um die gefälschten expliziten Bilder ihrer 12- und 13-jährigen Mitschüler zu erstellen.
  • Der Fall ist die erste bekannte Verhaftung und strafrechtliche Anklage wegen angeblicher KI-generierter Nacktbilder. Er bezieht sich auf ein Gesetz in Florida aus dem Jahr 2022, das Belästigungen durch Deepfake-Bilder eindämmen soll.
Quellen
Online-Journalist Matthias ist Gründer und Herausgeber von THE DECODER. Er ist davon überzeugt, dass Künstliche Intelligenz die Beziehung zwischen Mensch und Computer grundlegend verändern wird.
Community beitreten
Kommt in die DECODER-Community bei Discord,Reddit, Twitter und Co. - wir freuen uns auf euch!