Der Einsatz von KI zur Erkennung und Meldung von Material über Kindesmissbrauch auf Social-Media-Plattformen kann Ermittlungen verzögern.
Social-Media-Unternehmen wie Meta nutzen KI, um verdächtiges Material zu erkennen und zu melden, aber die US-Strafverfolgungsbehörden und das National Center for Missing and Exploited Children (NCMEC) können diese Berichte nur mit einem Durchsuchungsbefehl öffnen, berichtet The Guardian.
Die einzige Ausnahme sei, wenn der Inhalt von einer Person des Social-Media-Unternehmens verifiziert wurde.
Das Einholen eines Durchsuchungsbefehls könne Tage oder Wochen dauern, was zu Verzögerungen bei den Ermittlungen und möglicherweise zum Verlust von Beweisen führe.
Zudem würden in den automatisch generierten Berichten oft spezifische Informationen fehlen, die für die Erlangung eines Durchsuchungsbefehls notwendig sind.
Laut des NCMEC versendet Meta mit Abstand die meisten dieser KI-generierten Berichte. Im Jahr 2022 sollen mehr als 27 Millionen bzw. 84 Prozent aller Berichte über die Plattformen Facebook, Instagram und WhatsApp generiert worden sein. Insgesamt gingen 32 Millionen herkömmliche und KI-generierte Berichte aus verschiedenen Quellen ein.
KI verzögert Ermittlungen
Die Abhängigkeit von einem Durchsuchungsbeschluss führe zu einem Rückstau von KI-generierten Hinweisen, denen nicht nachgegangen werde, was Druck auf die ohnehin überlasteten Strafverfolgungsteams ausübe. In der Folge blieben viele KI-generierte Hinweise unbearbeitet.
Das Erfordernis eines Durchsuchungsbefehls für KI-generierte Hinweise hängt mit dem Schutz der Privatsphäre in den Vereinigten Staaten zusammen. Der vierte Verfassungszusatz verbietet unangemessene Durchsuchungen durch die Regierung.
KI-Bilderflut erschwert Ermittlungen zusätzlich
Im Oktober 2023 warnte die Internet Watch Foundation (IWF) vor der wachsenden Zahl von KI-generierten kinderpornografischen Inhalten. Die zunehmende Verbreitung synthetischer, aber fotorealistischer Bilder von Kindesmissbrauch stelle eine "erhebliche Bedrohung" für die Aufgabe der IWF dar, solche Inhalte aus dem Netz zu entfernen.
Auch die gemeinnützige Thorn Gruppe für die Sicherheit von Kindern befürchtet, dass die Menge an synthetischen Bildern die Suche nach Opfern und die Bekämpfung von tatsächlichem Kindesmissbrauch behindert. Die Anzahl der Bilder überfordere das bestehende Rückverfolgungssystem, das zusätzlich herausfinden müsse, welche Bilder echt und welche generiert seien. Beide Organisationen berichten von einer starken Zunahme solcher Bilder.