Inhalt
summary Zusammenfassung

Generative KI für Bilder soll zu einer Zunahme von Bildern führen, die Kindesmissbrauch zeigen. Dies kann die ohnehin schwierige Aufgabe der Identifizierung von Opfern und der Bekämpfung von tatsächlichem Missbrauch erschweren.

Generative Bild-KI soll zu einem alarmierenden Anstieg von lebensechten Bildern sexuellen Kindesmissbrauchs geführt haben, berichtet die Washington Post und beruft sich dabei unter anderem auf Untersuchungen von Thorn, einer gemeinnützigen Gruppe für die Sicherheit von Kindern.

Ermittler:innen befürchten, dass die Menge an gefälschten Bildern die Suche nach Opfern und die Bekämpfung von tatsächlichem Kindesmissbrauch behindert. Das bestehende Rückverfolgungssystem könnte durch die gefälschten Bilder verwirrt und die Verantwortlichen überfordert werden. Sie müssten zusätzlich zur normalen Recherche herausfinden, welche Bilder echt und welche gefälscht sind.

Yiota Souras, Leiterin der Rechtsabteilung des National Center for Missing and Exploited Children, bestätigt einen "starken Anstieg" von KI-generierten Missbrauchsbildern. Sie erklärt ein weiteres Risiko: Die massenhafte Produktion solcher Bilder könnte auch dazu genutzt werden, reale Kinder zu Verhalten wie auf den Bildern zu verleiten.

Anzeige
Anzeige

KI-Wettrüsten in Pädophilenforen

Generative KI-Tools hätten in Pädophilenforen ein regelrechtes Wettrüsten ausgelöst, heißt es in dem Bericht. Tausende Bilder seien in Dark-Web-Foren entdeckt worden, in denen die Teilnehmer auch Anleitungen austauschen, wie andere Pädophile ihre eigenen Bilder erstellen können. Sie verwenden dazu Open-Source-Modelle.

In einer Umfrage in einem Forum mit mehr als 3.000 Teilnehmern gaben rund 80 Prozent an, dass sie bereits einen KI-Bildgenerator verwendet haben oder verwenden wollen, um Bilder von Kindesmissbrauch zu generieren, sagt Avi Jager, Leiter der Abteilung für Kinderschutz und menschliche Ausbeutung bei ActiveFence. Die Organisation unterstützt Social-Media- und Streaming-Sites dabei, Kinderpornografie auf ihren Plattformen zu verhindern.

Kinderschützer und Vertreter der US-Justiz gehen davon aus, dass KI-generierte Bilder strafbar sind. Entsprechende Urteile, die etwa das Strafmaß festlegen, liegen jedoch noch nicht vor. Da die Bilder keine echten Kinder zeigen, ist unklar, ob sie gegen Bundesgesetze zum Schutz von Kindern verstoßen.

Hier könnten in Zukunft Systeme helfen, die KI-Bilder zuverlässig von realen Fotos unterscheiden können, um sie dann in Online-Erkennungssysteme zu integrieren. Ein anderer Ansatz ist die Kennzeichnung von KI-Bildern direkt in der Software, die sie erzeugt.

Das FBI warnte Anfang Juni vor einem Vorgehen, bei dem mit Hilfe generativer KI aus vorhandenen Bildern, etwa aus Social Media, weitere und explizite Bilder generiert werden. Die US-Ermittlungsbehörde beobachtet seit April 2023 eine Zunahme dieser sogenannten "Sextortion-Opfer".

Anzeige
Community beitreten
Kommt in die DECODER-Community bei Discord,Reddit, Twitter und Co. - wir freuen uns auf euch!
Anzeige
Community beitreten
Kommt in die DECODER-Community bei Discord,Reddit, Twitter und Co. - wir freuen uns auf euch!
Empfehlung
Unterstütze unsere unabhängige, frei zugängliche Berichterstattung. Jeder Betrag hilft und sichert unsere Zukunft. Jetzt unterstützen:
Banküberweisung
Zusammenfassung
  • Generative KI für Bilder wird voraussichtlich zu einer Zunahme von Bildern führen, die Kindesmissbrauch zeigen.
  • Dies kann die ohnehin schwierige Aufgabe der Identifizierung von Opfern und der Bekämpfung von tatsächlichem Missbrauch erschweren.
  • In Zukunft könnten Systeme, die KI-Bilder identifizieren, oder Modelle, die diese bereits bei der Generierung kennzeichnen, zur Bekämpfung beitragen.
Quellen
Online-Journalist Matthias ist Gründer und Herausgeber von THE DECODER. Er ist davon überzeugt, dass Künstliche Intelligenz die Beziehung zwischen Mensch und Computer grundlegend verändern wird.
Community beitreten
Kommt in die DECODER-Community bei Discord,Reddit, Twitter und Co. - wir freuen uns auf euch!