Inhalt
summary Zusammenfassung

Mit einer klaren Position zur geplanten Richtlinie gegen Kindesmissbrauch will das EU-Parlament die Verbreitung von KI-generiertem Missbrauchsmaterial unterbinden. Die IWF warnt vor einer rasch eskalierenden Bedrohung.

Anzeige

Laut IWF wurde KI-generiertes Material mit Darstellungen sexuellen Kindesmissbrauchs (CSAM) erstmals 2023 identifiziert. Innerhalb eines Jahres stieg die Zahl der bestätigten Fälle um 380 Prozent auf 245 Meldungen im Jahr 2024. Diese enthielten insgesamt 7.644 Bilder und Videos.

Der Anteil schwerster Darstellungen (Kategorie A nach britischem Recht) lag bei AI-CSAM bei fast 40 Prozent – beinahe doppelt so hoch wie bei herkömmlichem CSAM (21 Prozent). 98 Prozent der synthetisch erzeugten Inhalte stellten Mädchen dar.

Der IWF zufolge nutzen Täter inzwischen leicht zugängliche Tools wie Text-Bild-Generatoren und 'Nudifying'-Apps. Die fortschrittlichsten KI-Systeme können darüber hinaus hyperrealistische Kurzvideos erstellen.

Anzeige
Anzeige

"Was wir sehen, ist hochrealistisches Missbrauchsmaterial, das mit minimalem technischem Aufwand generiert wird", sagte Dan Sexton, Chief Technology Officer der IWF. Besonders alarmierend seien Fälle, in denen echte Missbrauchsbilder für das Training von KI-Modellen verwendet werden.

EU-Rat will Besitz für den Eigengebrauch erlauben

Der aktuelle EU-Rechtsrahmen enthält keine expliziten Regelungen zu synthetischem Missbrauchsmaterial. Das EU-Parlament hat im Rahmen der geplanten Richtlinie zur Bekämpfung von Kindesmissbrauch (Child Sexual Abuse Directive, CSAD) nun eine klare Position eingenommen.

Es unterstützt die vollständige Kriminalisierung von AI-CSAM, einschließlich des Besitzes zum "persönlichen Gebrauch", und lehnt jede Form von Ausnahme ab. Zudem fordert es bessere Definitionen, Werkzeuge und eine stärkere grenzüberschreitende Zusammenarbeit für Strafverfolgungsbehörden und Kinderschutzeinrichtungen.

Kritik wird insbesondere an der Position des Rates der EU laut: Dessen allgemeiner Vorschlag zur CSAD enthält eine aus Sicht der IWF "zutiefst besorgniserregende Gesetzeslücke", die den Besitz solcher Bilder zum "persönlichen Gebrauch" erlauben würde.

Die IWF und ihre Partner fordern die Streichung dieser Regelung - es existiere kein harmloses Missbrauchsmaterial. Ein Problem an KI-geniertem CSAM-Material ist, dass es das Auffinden realer Fälle erschweren kann.

Empfehlung

Darüber hinaus fordert die IWF ein EU-weites Verbot von Handbüchern, Anleitungen und Modellen zur Erstellung von CSAM sowie die konsequente Anerkennung und Unterstützung der Betroffenen. Die Verhandlungen zur Richtlinie befinden sich derzeit in der Trilogphase.

Anzeige
Anzeige
Community beitreten
Kommt in die DECODER-Community bei Discord,Reddit, Twitter und Co. - wir freuen uns auf euch!
Unterstütze unsere unabhängige, frei zugängliche Berichterstattung. Jeder Betrag hilft und sichert unsere Zukunft. Jetzt unterstützen:
Banküberweisung
Zusammenfassung
  • Laut IWF ist die Zahl der Meldungen zu KI-generiertem Missbrauchsmaterial innerhalb eines Jahres um 380 Prozent gestiegen, wobei 2024 erstmals 7.644 entsprechende Bilder und Videos registriert wurden.
  • Besonders auffällig ist der hohe Anteil schwerster Darstellungen und die Tatsache, dass fast ausschließlich Mädchen betroffen sind. Täter nutzen zunehmend einfach verfügbare KI-Tools wie Text-Bild-Generatoren und "Nudifying"-Apps, um hyperrealistisches Material zu erstellen.
  • Das EU-Parlament fordert ein vollständiges Verbot von KI-generiertem Missbrauchsmaterial, einschließlich Besitz zum eigenen Gebrauch, und lehnt Ausnahmen ab. Im Gegensatz dazu sieht der EU-Rat Ausnahmen für den Eigengebrauch vor, was von der IWF kritisiert wird.
Quellen
Online-Journalist Matthias ist Gründer und Herausgeber von THE DECODER. Er ist davon überzeugt, dass Künstliche Intelligenz die Beziehung zwischen Mensch und Computer grundlegend verändern wird.
Community beitreten
Kommt in die DECODER-Community bei Discord,Reddit, Twitter und Co. - wir freuen uns auf euch!