Inhalt
summary Zusammenfassung

Die Internet Watch Foundation (IWF), eine gemeinnützige Organisation, die sich auf die Entfernung von Material über sexuellen Kindesmissbrauch (child sexual abuse material, CSAM) aus dem Internet konzentriert, berichtet über einen Anstieg von KI-generiertem CSAM.

Innerhalb eines Monats fanden die IWF-Analysten 20.254 KI-generierte Bilder in einem einzigen CSAM-Forum im Dark Web. Davon wurden 11.108 Bilder als potenziell kriminell eingestuft und von 12 IWF-Spezialisten analysiert, die insgesamt 87,5 Stunden damit verbrachten.

Die kriminellen Bilder wurden als Verstöße gegen eines von zwei britischen Gesetzen bewertet: den Protection of Children Act 1978 oder den Coroners and Justice Act 2009. Insgesamt wurden 2.562 Bilder als kriminelle Pseudo-Fotografien und 416 Bilder als kriminelle verbotene Bilder eingestuft.

Laut IWF können diese Inhalte mithilfe von Text-zu-Bild-Technologie erstellt werden, bei der durch die Eingabe einer Beschreibung realistische Bilder erzeugt werden, die von echten Fotografien kaum zu unterscheiden sind.

Anzeige
Anzeige

Eine Nische, die rasch wachsen könnte

Der Bericht hebt auch weitere Ergebnisse hervor, darunter, dass KI-generierte Inhalte derzeit nur einen kleinen Teil der Arbeit der IWF ausmachen, aber das Potenzial für ein schnelles Wachstum haben.

KI-generierte CSAM würden zudem immer realistischer, was Herausforderungen für die IWF und die Strafverfolgungsbehörden mit sich bringe. Es gebe außerdem Hinweise darauf, dass KI-generierte CSAM zur erneuten Viktimisierung bekannter Missbrauchsopfer und prominenter Kinder beitrügen.

Darüber hinaus bieten KI-generierte CSAM Tätern eine weitere Möglichkeit, vom Kindesmissbrauch zu profitieren.

Auswirkungen auf die IWF

Die IWF hat eine Reihe von Empfehlungen für Regierungen, Strafverfolgungsbehörden und Technologieunternehmen formuliert, um das wachsende Problem der KI-generierten CSAM anzugehen.

Dazu gehören die Förderung einer internationalen Abstimmung über den Umgang mit Inhalten, die Überprüfung von Gesetzen zur Entfernung von Online-Inhalten, die Aktualisierung der Polizeischulung, um KI-generierte CSAM abzudecken, die regulatorische Überwachung von KI-Modellen und die Sicherstellung, dass Unternehmen, die generative KI und große Sprachmodelle (Large Language Models, LLMs) entwickeln und einsetzen, in ihre Geschäftsbedingungen Verbote der Generierung von CSAM aufnehmen.

Empfehlung

Letztlich stelle die Zunahme von KI-generierten CSAMs eine erhebliche Bedrohung für die Aufgabe der IWFs dar, kinderpornografische Inhalte aus dem Internet zu entfernen. Je weiter die Technologie voranschreitet, desto realistischer werden die Bilder und der Missbrauch von Kindern könnte zunehmen.

Bereits Ende Juni hatte das National Center for Missing and Exploited Children in den USA von einem "starken Anstieg" von KI-generierten Missbrauchsbildern berichtet. Die Bilder würden Ermittlungen erschweren und könnten die Identifizierung von Opfern behindern.

In Pädophilenforen tauschten Nutzerinnen und Nutzer Anleitungen für Open-Source-Modelle aus, um die Bilder zu generieren. Diese sind nach Ansicht von Kinderschützern und Vertretern der US-Justiz strafbar, Urteile zur Einstufung und zum Strafmaß liegen jedoch bislang nicht vor.

Anzeige
Community beitreten
Kommt in die DECODER-Community bei Discord,Reddit, Twitter und Co. - wir freuen uns auf euch!
Anzeige
Community beitreten
Kommt in die DECODER-Community bei Discord,Reddit, Twitter und Co. - wir freuen uns auf euch!
Unterstütze unsere unabhängige, frei zugängliche Berichterstattung. Jeder Betrag hilft und sichert unsere Zukunft. Jetzt unterstützen:
Banküberweisung
Zusammenfassung
  • Die Internet Watch Foundation (IWF) berichtet über eine Zunahme von KI-generiertem Material über sexuellen Kindesmissbrauch (child sexual abuse material, CSAM) im Internet, wobei in einem Dark Web-Forum innerhalb eines Monats mehr als 20.000 solcher Bilder gefunden wurden.
  • KI-generiertes CSAM wird immer realistischer und stellt die IWF und die Strafverfolgungsbehörden vor Herausforderungen bei ihrer Arbeit, insbesondere wenn die Menge zunimmt.
  • Die IWF empfiehlt Regierungen, Strafverfolgungsbehörden und Technologieunternehmen, eine internationale Abstimmung über den Umgang mit solchen Inhalten anzustreben, Gesetze zur Entfernung von Online-Inhalten zu überprüfen und die regulatorische Überwachung von KI-Modellen sicherzustellen.
Quellen
Online-Journalist Matthias ist Gründer und Herausgeber von THE DECODER. Er ist davon überzeugt, dass Künstliche Intelligenz die Beziehung zwischen Mensch und Computer grundlegend verändern wird.
Community beitreten
Kommt in die DECODER-Community bei Discord,Reddit, Twitter und Co. - wir freuen uns auf euch!