Anzeige
Skip to content

US-Teenager wegen KI-generierter Nacktfotos von Mitschülern verhaftet

Image description
Midjourney prompted by THE DECODER

Zwei Teenager aus Miami wurden angeklagt, KI-generierte Nacktbilder von Mitschülern erstellt und ohne deren Zustimmung weitergegeben zu haben.

Zwei Teenager im Alter von 13 und 14 Jahren aus Miami, Florida, wurden am 22. Dezember 2023 verhaftet, weil sie angeblich KI-generierte Nacktbilder von männlichen und weiblichen Mitschülern im Alter von 12 und 13 Jahren erstellt und ohne deren Zustimmung geteilt haben sollen. Das berichtet WIRED unter Berufung auf Polizeiberichte.

Den Berichten zufolge sollen die Jugendlichen eine "KI-Anwendung" verwendet haben, um die gefälschten expliziten Bilder zu erstellen. Der Name der App wird nicht genannt.

Die Jugendlichen wurden wegen Verbrechen dritten Grades angeklagt, auf derselben Stufe wie Autodiebstahl oder Freiheitsberaubung. Die Klage bezieht sich auf ein Gesetz von Florida aus dem Jahr 2022, das Belästigung durch Deepfake-Bilder eindämmen soll.

Anzeige
DEC_D_Incontent-1

Bisher haben sich weder die Eltern der beschuldigten Jungen noch der zuständige Ermittler und Staatsanwalt zu dem Fall geäußert.

Ähnliche Fälle sind bereits in den USA und in Europa bekannt geworden. Der Fall in Florida soll jedoch die erste bekannte Verhaftung und strafrechtliche Anklage wegen angeblicher KI-generierter Nacktbilder sein.

KI-Bildgeneratoren führen zu mehr Kindesmissbrauch

Die auf KI-Fake-Bildern dargestellten nackten Körper sind keine Aufnahmen echter Körper, sondern durch Künstliche Intelligenz erschaffene Nachbildungen.

Trotzdem können diese Bilder so wirken, als wären sie authentisch, was zu psychischen Belastungen und einem potenziellen Schaden für den Ruf der abgebildeten Personen führen kann.

Anzeige
DEC_D_Incontent-2

Das Weiße Haus reagierte kürzlich auf KI-gefälschte Nacktfotos von Taylor Swift: Die US-Regierung bezeichnete diesen und ähnliche Vorfälle als "alarmierend". Es benötige eigenständige gesetzliche Regeln.

Die Internet Watch Foundation (IWF) meldete Ende Oktober 2023, dass KI-Bildgeneratoren zudem zu einem Anstieg an Material über sexuellen Kindesmissbrauch (child sexual abuse material, CSAM) führen.

Bereits Ende Juni 2023 hatte das National Center for Missing and Exploited Children in den USA von einem "starken Anstieg" von KI-generierten Missbrauchsbildern berichtet. Die Bilder würden Ermittlungen erschweren und könnten die Identifizierung von Opfern behindern.

KI-News ohne Hype – von Menschen kuratiert

Mit dem THE‑DECODER‑Abo liest du werbefrei und wirst Teil unserer Community: Diskutiere im Kommentarsystem, erhalte unseren wöchentlichen KI‑Newsletter, 6× im Jahr den „KI Radar“‑Frontier‑Newsletter mit den neuesten Entwicklungen aus der Spitze der KI‑Forschung, bis zu 25 % Rabatt auf KI Pro‑Events und Zugriff auf das komplette Archiv der letzten zehn Jahre.

Quelle: WIRED

KI-News ohne Hype
Von Menschen kuratiert.

  • Mehr als 20 Prozent Launch-Rabatt.
  • Lesen ohne Ablenkung – keine Google-Werbebanner.
  • Zugang zum Kommentarsystem und Austausch mit der Community.
  • Wöchentlicher KI-Newsletter.
  • 6× jährlich: „KI Radar“ – Deep-Dives zu den wichtigsten KI-Themen.
  • Bis zu 25 % Rabatt auf KI Pro Online-Events.
  • Zugang zum kompletten Archiv der letzten zehn Jahre.
  • Die neuesten KI‑Infos von The Decoder – klar und auf den Punkt.
The Decoder abonnieren