KI und Gesellschaft

US-Teenager wegen KI-generierter Nacktfotos von Mitschülern verhaftet

Matthias Bastian
the silhouette of a woman emergine from a vertical stack of bright green and white horizontal lines against black background, glowing green

Midjourney prompted by THE DECODER

Zwei Teenager aus Miami wurden angeklagt, KI-generierte Nacktbilder von Mitschülern erstellt und ohne deren Zustimmung weitergegeben zu haben.

Zwei Teenager im Alter von 13 und 14 Jahren aus Miami, Florida, wurden am 22. Dezember 2023 verhaftet, weil sie angeblich KI-generierte Nacktbilder von männlichen und weiblichen Mitschülern im Alter von 12 und 13 Jahren erstellt und ohne deren Zustimmung geteilt haben sollen. Das berichtet WIRED unter Berufung auf Polizeiberichte.

Den Berichten zufolge sollen die Jugendlichen eine "KI-Anwendung" verwendet haben, um die gefälschten expliziten Bilder zu erstellen. Der Name der App wird nicht genannt.

Die Jugendlichen wurden wegen Verbrechen dritten Grades angeklagt, auf derselben Stufe wie Autodiebstahl oder Freiheitsberaubung. Die Klage bezieht sich auf ein Gesetz von Florida aus dem Jahr 2022, das Belästigung durch Deepfake-Bilder eindämmen soll.

Bisher haben sich weder die Eltern der beschuldigten Jungen noch der zuständige Ermittler und Staatsanwalt zu dem Fall geäußert.

Ähnliche Fälle sind bereits in den USA und in Europa bekannt geworden. Der Fall in Florida soll jedoch die erste bekannte Verhaftung und strafrechtliche Anklage wegen angeblicher KI-generierter Nacktbilder sein.

KI-Bildgeneratoren führen zu mehr Kindesmissbrauch

Die auf KI-Fake-Bildern dargestellten nackten Körper sind keine Aufnahmen echter Körper, sondern durch Künstliche Intelligenz erschaffene Nachbildungen.

Trotzdem können diese Bilder so wirken, als wären sie authentisch, was zu psychischen Belastungen und einem potenziellen Schaden für den Ruf der abgebildeten Personen führen kann.

Das Weiße Haus reagierte kürzlich auf KI-gefälschte Nacktfotos von Taylor Swift: Die US-Regierung bezeichnete diesen und ähnliche Vorfälle als "alarmierend". Es benötige eigenständige gesetzliche Regeln.

Die Internet Watch Foundation (IWF) meldete Ende Oktober 2023, dass KI-Bildgeneratoren zudem zu einem Anstieg an Material über sexuellen Kindesmissbrauch (child sexual abuse material, CSAM) führen.

Bereits Ende Juni 2023 hatte das National Center for Missing and Exploited Children in den USA von einem "starken Anstieg" von KI-generierten Missbrauchsbildern berichtet. Die Bilder würden Ermittlungen erschweren und könnten die Identifizierung von Opfern behindern.

Quellen: