Mit einer klaren Position zur geplanten Richtlinie gegen Kindesmissbrauch will das EU-Parlament die Verbreitung von KI-generiertem Missbrauchsmaterial unterbinden. Die IWF warnt vor einer rasch eskalierenden Bedrohung.
Laut IWF wurde KI-generiertes Material mit Darstellungen sexuellen Kindesmissbrauchs (CSAM) erstmals 2023 identifiziert. Innerhalb eines Jahres stieg die Zahl der bestätigten Fälle um 380 Prozent auf 245 Meldungen im Jahr 2024. Diese enthielten insgesamt 7.644 Bilder und Videos.
Der Anteil schwerster Darstellungen (Kategorie A nach britischem Recht) lag bei AI-CSAM bei fast 40 Prozent – beinahe doppelt so hoch wie bei herkömmlichem CSAM (21 Prozent). 98 Prozent der synthetisch erzeugten Inhalte stellten Mädchen dar.
Der IWF zufolge nutzen Täter inzwischen leicht zugängliche Tools wie Text-Bild-Generatoren und 'Nudifying'-Apps. Die fortschrittlichsten KI-Systeme können darüber hinaus hyperrealistische Kurzvideos erstellen.
"Was wir sehen, ist hochrealistisches Missbrauchsmaterial, das mit minimalem technischem Aufwand generiert wird", sagte Dan Sexton, Chief Technology Officer der IWF. Besonders alarmierend seien Fälle, in denen echte Missbrauchsbilder für das Training von KI-Modellen verwendet werden.
EU-Rat will Besitz für den Eigengebrauch erlauben
Der aktuelle EU-Rechtsrahmen enthält keine expliziten Regelungen zu synthetischem Missbrauchsmaterial. Das EU-Parlament hat im Rahmen der geplanten Richtlinie zur Bekämpfung von Kindesmissbrauch (Child Sexual Abuse Directive, CSAD) nun eine klare Position eingenommen.
Es unterstützt die vollständige Kriminalisierung von AI-CSAM, einschließlich des Besitzes zum "persönlichen Gebrauch", und lehnt jede Form von Ausnahme ab. Zudem fordert es bessere Definitionen, Werkzeuge und eine stärkere grenzüberschreitende Zusammenarbeit für Strafverfolgungsbehörden und Kinderschutzeinrichtungen.
Kritik wird insbesondere an der Position des Rates der EU laut: Dessen allgemeiner Vorschlag zur CSAD enthält eine aus Sicht der IWF "zutiefst besorgniserregende Gesetzeslücke", die den Besitz solcher Bilder zum "persönlichen Gebrauch" erlauben würde.
Die IWF und ihre Partner fordern die Streichung dieser Regelung - es existiere kein harmloses Missbrauchsmaterial. Ein Problem an KI-geniertem CSAM-Material ist, dass es das Auffinden realer Fälle erschweren kann.
Darüber hinaus fordert die IWF ein EU-weites Verbot von Handbüchern, Anleitungen und Modellen zur Erstellung von CSAM sowie die konsequente Anerkennung und Unterstützung der Betroffenen. Die Verhandlungen zur Richtlinie befinden sich derzeit in der Trilogphase.