Die Internet Watch Foundation (IWF), eine gemeinnützige Organisation, die sich auf die Entfernung von Material über sexuellen Kindesmissbrauch (child sexual abuse material, CSAM) aus dem Internet konzentriert, berichtet über einen Anstieg von KI-generiertem CSAM.
Innerhalb eines Monats fanden die IWF-Analysten 20.254 KI-generierte Bilder in einem einzigen CSAM-Forum im Dark Web. Davon wurden 11.108 Bilder als potenziell kriminell eingestuft und von 12 IWF-Spezialisten analysiert, die insgesamt 87,5 Stunden damit verbrachten.
Die kriminellen Bilder wurden als Verstöße gegen eines von zwei britischen Gesetzen bewertet: den Protection of Children Act 1978 oder den Coroners and Justice Act 2009. Insgesamt wurden 2.562 Bilder als kriminelle Pseudo-Fotografien und 416 Bilder als kriminelle verbotene Bilder eingestuft.
Laut IWF können diese Inhalte mithilfe von Text-zu-Bild-Technologie erstellt werden, bei der durch die Eingabe einer Beschreibung realistische Bilder erzeugt werden, die von echten Fotografien kaum zu unterscheiden sind.
Eine Nische, die rasch wachsen könnte
Der Bericht hebt auch weitere Ergebnisse hervor, darunter, dass KI-generierte Inhalte derzeit nur einen kleinen Teil der Arbeit der IWF ausmachen, aber das Potenzial für ein schnelles Wachstum haben.
KI-generierte CSAM würden zudem immer realistischer, was Herausforderungen für die IWF und die Strafverfolgungsbehörden mit sich bringe. Es gebe außerdem Hinweise darauf, dass KI-generierte CSAM zur erneuten Viktimisierung bekannter Missbrauchsopfer und prominenter Kinder beitrügen.
Darüber hinaus bieten KI-generierte CSAM Tätern eine weitere Möglichkeit, vom Kindesmissbrauch zu profitieren.
Auswirkungen auf die IWF
Die IWF hat eine Reihe von Empfehlungen für Regierungen, Strafverfolgungsbehörden und Technologieunternehmen formuliert, um das wachsende Problem der KI-generierten CSAM anzugehen.
Dazu gehören die Förderung einer internationalen Abstimmung über den Umgang mit Inhalten, die Überprüfung von Gesetzen zur Entfernung von Online-Inhalten, die Aktualisierung der Polizeischulung, um KI-generierte CSAM abzudecken, die regulatorische Überwachung von KI-Modellen und die Sicherstellung, dass Unternehmen, die generative KI und große Sprachmodelle (Large Language Models, LLMs) entwickeln und einsetzen, in ihre Geschäftsbedingungen Verbote der Generierung von CSAM aufnehmen.
Letztlich stelle die Zunahme von KI-generierten CSAMs eine erhebliche Bedrohung für die Aufgabe der IWFs dar, kinderpornografische Inhalte aus dem Internet zu entfernen. Je weiter die Technologie voranschreitet, desto realistischer werden die Bilder und der Missbrauch von Kindern könnte zunehmen.
Bereits Ende Juni hatte das National Center for Missing and Exploited Children in den USA von einem "starken Anstieg" von KI-generierten Missbrauchsbildern berichtet. Die Bilder würden Ermittlungen erschweren und könnten die Identifizierung von Opfern behindern.
In Pädophilenforen tauschten Nutzerinnen und Nutzer Anleitungen für Open-Source-Modelle aus, um die Bilder zu generieren. Diese sind nach Ansicht von Kinderschützern und Vertretern der US-Justiz strafbar, Urteile zur Einstufung und zum Strafmaß liegen jedoch bislang nicht vor.