KI in der Praxis

KI-generierte Berichte über Kindesmissbrauch verzögern Ermittlungen

Matthias Bastian
An abstract digital art piece showcasing a variety of larger silhouetted figures representing children and teenagers, depicted in a highly stylized, silhouette form. The figures are deliberately oversized and dominate the canvas, emphasizing their presence within a digital data stream. The background zooms further into the vibrant red and blue digital glitch patterns, with dense vertical streaks symbolizing streams of data and signal noise. Each figure is reduced to its most basic, recognizable shape, lacking detail but clearly suggestive of youth. Around them, digital identifiers and tags float with a subtle glow, against the reflective surface that's intricately patterned with binary code, creating a powerful visual metaphor for the digital age

Midjourney prompted by THE DECODER

Der Einsatz von KI zur Erkennung und Meldung von Material über Kindesmissbrauch auf Social-Media-Plattformen kann Ermittlungen verzögern.

Social-Media-Unternehmen wie Meta nutzen KI, um verdächtiges Material zu erkennen und zu melden, aber die US-Strafverfolgungsbehörden und das National Center for Missing and Exploited Children (NCMEC) können diese Berichte nur mit einem Durchsuchungsbefehl öffnen, berichtet The Guardian.

Die einzige Ausnahme sei, wenn der Inhalt von einer Person des Social-Media-Unternehmens verifiziert wurde.

Das Einholen eines Durchsuchungsbefehls könne Tage oder Wochen dauern, was zu Verzögerungen bei den Ermittlungen und möglicherweise zum Verlust von Beweisen führe.

Zudem würden in den automatisch generierten Berichten oft spezifische Informationen fehlen, die für die Erlangung eines Durchsuchungsbefehls notwendig sind.

Laut des NCMEC versendet Meta mit Abstand die meisten dieser KI-generierten Berichte. Im Jahr 2022 sollen mehr als 27 Millionen bzw. 84 Prozent aller Berichte über die Plattformen Facebook, Instagram und WhatsApp generiert worden sein. Insgesamt gingen 32 Millionen herkömmliche und KI-generierte Berichte aus verschiedenen Quellen ein.

KI verzögert Ermittlungen

Die Abhängigkeit von einem Durchsuchungsbeschluss führe zu einem Rückstau von KI-generierten Hinweisen, denen nicht nachgegangen werde, was Druck auf die ohnehin überlasteten Strafverfolgungsteams ausübe. In der Folge blieben viele KI-generierte Hinweise unbearbeitet.

Das Erfordernis eines Durchsuchungsbefehls für KI-generierte Hinweise hängt mit dem Schutz der Privatsphäre in den Vereinigten Staaten zusammen. Der vierte Verfassungszusatz verbietet unangemessene Durchsuchungen durch die Regierung.

KI-Bilderflut erschwert Ermittlungen zusätzlich

Im Oktober 2023 warnte die Internet Watch Foundation (IWF) vor der wachsenden Zahl von KI-generierten kinderpornografischen Inhalten. Die zunehmende Verbreitung synthetischer, aber fotorealistischer Bilder von Kindesmissbrauch stelle eine "erhebliche Bedrohung" für die Aufgabe der IWF dar, solche Inhalte aus dem Netz zu entfernen.

Auch die gemeinnützige Thorn Gruppe für die Sicherheit von Kindern befürchtet, dass die Menge an synthetischen Bildern die Suche nach Opfern und die Bekämpfung von tatsächlichem Kindesmissbrauch behindert. Die Anzahl der Bilder überfordere das bestehende Rückverfolgungssystem, das zusätzlich herausfinden müsse, welche Bilder echt und welche generiert seien. Beide Organisationen berichten von einer starken Zunahme solcher Bilder.

Quellen: