Neue Prüfpflicht: UK plant Tests gegen KI-generierte Missbrauchsdarstellungen
Kurz & Knapp
- Die britische Regierung will autorisierte Tester zulassen, um KI-Modelle vor der Veröffentlichung auf ihre Fähigkeit zur Erzeugung von CSAM (Darstellungen sexuellen Kindesmissbrauchs) zu prüfen.
- Die Internet Watch Foundation meldet einen starken Anstieg von KI-bezogenen CSAM-Fällen und unterstützt die Pläne, während die NSPCC verpflichtende Prüfungen fordert.
- Das Vorhaben ist Teil einer breiteren Strategie, um Missbrauchsdarstellungen im Netz zu bekämpfen und Kinderschutz im Design von KI-Systemen zu verankern.
Das Vereinigte Königreich will Unternehmen und Kinderschutzorganisationen erlauben, KI-Modelle vor ihrer Veröffentlichung darauf zu prüfen, ob sie Darstellungen sexuellen Kindesmissbrauchs (CSAM) erzeugen können.
Laut einem Bericht der BBC will die britische Regierung den „Crime and Policing Bill“ erweitern, um gezielte Prüfungen von KI-Systemen auf sogenannte CSAM (Child Sexual Abuse Material) zu ermöglichen. Die neuen Bestimmungen sollen „autorisierten Testern“ – darunter Technologieunternehmen und Kinderschutzorganisationen – erlauben, Modelle bereits vor ihrer Freigabe zu untersuchen, damit diese nicht zur Herstellung illegaler Inhalte genutzt werden können.
Technologieministerin Liz Kendall erklärte, das Ziel sei es, „KI-Systeme an der Quelle sicher zu machen“. Man werde nicht zulassen, dass technologische Entwicklungen schneller voranschreiten als der Schutz von Kindern. Safeguarding Minister Jess Phillips betonte, die neuen Regeln sollen verhindern, dass eigentlich harmlose KI-Anwendungen in Werkzeuge zur Erstellung „abscheulicher Inhalte“ umfunktioniert werden.
Kinderschutzorganisationen fordern verbindliche Prüfpflichten
Die Internet Watch Foundation (IWF), eine der wenigen Organisationen mit staatlicher Genehmigung zur aktiven Suche nach Missbrauchsdarstellungen, begrüßt die Initiative. Nach Angaben der IWF hat sich die Zahl der gemeldeten KI-bezogenen CSAM-Fälle stark erhöht: Zwischen Januar und Oktober 2025 wurden 426 Inhalte entfernt, gegenüber 199 im selben Zeitraum 2024. IWF-Geschäftsführerin Kerry Smith warnte, KI ermögliche es Tätern, Überlebende „mit nur wenigen Klicks“ erneut zu verletzen.
Die IWF berichtete bereits im Herbst 2023 über einen starken Anstieg, der auch die Ermittlung in realen Fällen von Kindesmissbrauch erschwert.
Auch die Kinderschutzorganisation NSPCC befürwortet die neuen Maßnahmen, fordert aber, dass die Prüfungen verpflichtend und nicht freiwillig sind. Politikmanagerin Rani Govender sagte, Kinderschutz müsse ein fester Bestandteil der KI-Entwicklung sein und dürfe nicht erst nachträglich berücksichtigt werden.
Regierung will neue Standards für KI-Sicherheit schaffen
Die geplante Gesetzesänderung soll nicht nur CSAM betreffen, sondern auch nicht einvernehmliche oder gewaltbezogene Inhalte einschließen. Expertinnen und Experten warnen, dass große KI-Modelle, die auf ungefilterten Internetdaten basieren, missbraucht werden können, um realistische, aber synthetische Darstellungen von Gewalt oder Missbrauch zu erzeugen. Ermittlungsbehörden stehen dadurch vor der Herausforderung, echtes von künstlich generiertem Material zu unterscheiden.
Bereits zuvor hatte das Innenministerium angekündigt, dass Großbritannien weltweit das erste Land sein werde, das den Besitz, die Entwicklung und den Einsatz von KI-Systemen zur Erzeugung von CSAM unter Strafe stellt. Verstöße können mit bis zu fünf Jahren Haft geahndet werden.