Inhalt
summary Zusammenfassung

Der Einsatz von KI zur Erkennung und Meldung von Material über Kindesmissbrauch auf Social-Media-Plattformen kann Ermittlungen verzögern.

Anzeige

Social-Media-Unternehmen wie Meta nutzen KI, um verdächtiges Material zu erkennen und zu melden, aber die US-Strafverfolgungsbehörden und das National Center for Missing and Exploited Children (NCMEC) können diese Berichte nur mit einem Durchsuchungsbefehl öffnen, berichtet The Guardian.

Die einzige Ausnahme sei, wenn der Inhalt von einer Person des Social-Media-Unternehmens verifiziert wurde.

Das Einholen eines Durchsuchungsbefehls könne Tage oder Wochen dauern, was zu Verzögerungen bei den Ermittlungen und möglicherweise zum Verlust von Beweisen führe.

Anzeige
Anzeige

Zudem würden in den automatisch generierten Berichten oft spezifische Informationen fehlen, die für die Erlangung eines Durchsuchungsbefehls notwendig sind.

Laut des NCMEC versendet Meta mit Abstand die meisten dieser KI-generierten Berichte. Im Jahr 2022 sollen mehr als 27 Millionen bzw. 84 Prozent aller Berichte über die Plattformen Facebook, Instagram und WhatsApp generiert worden sein. Insgesamt gingen 32 Millionen herkömmliche und KI-generierte Berichte aus verschiedenen Quellen ein.

KI verzögert Ermittlungen

Die Abhängigkeit von einem Durchsuchungsbeschluss führe zu einem Rückstau von KI-generierten Hinweisen, denen nicht nachgegangen werde, was Druck auf die ohnehin überlasteten Strafverfolgungsteams ausübe. In der Folge blieben viele KI-generierte Hinweise unbearbeitet.

Das Erfordernis eines Durchsuchungsbefehls für KI-generierte Hinweise hängt mit dem Schutz der Privatsphäre in den Vereinigten Staaten zusammen. Der vierte Verfassungszusatz verbietet unangemessene Durchsuchungen durch die Regierung.

KI-Bilderflut erschwert Ermittlungen zusätzlich

Im Oktober 2023 warnte die Internet Watch Foundation (IWF) vor der wachsenden Zahl von KI-generierten kinderpornografischen Inhalten. Die zunehmende Verbreitung synthetischer, aber fotorealistischer Bilder von Kindesmissbrauch stelle eine "erhebliche Bedrohung" für die Aufgabe der IWF dar, solche Inhalte aus dem Netz zu entfernen.

Empfehlung

Auch die gemeinnützige Thorn Gruppe für die Sicherheit von Kindern befürchtet, dass die Menge an synthetischen Bildern die Suche nach Opfern und die Bekämpfung von tatsächlichem Kindesmissbrauch behindert. Die Anzahl der Bilder überfordere das bestehende Rückverfolgungssystem, das zusätzlich herausfinden müsse, welche Bilder echt und welche generiert seien. Beide Organisationen berichten von einer starken Zunahme solcher Bilder.

Anzeige
Anzeige
Community beitreten
Kommt in die DECODER-Community bei Discord,Reddit, Twitter und Co. - wir freuen uns auf euch!
Unterstütze unsere unabhängige, frei zugängliche Berichterstattung. Jeder Betrag hilft und sichert unsere Zukunft. Jetzt unterstützen:
Banküberweisung
Zusammenfassung
  • KI-Systeme zur Erkennung von Material über Kindesmissbrauch auf Social-Media-Plattformen können Ermittlungen verzögern, da die US-Strafverfolgungsbehörden und das NCMEC einen Durchsuchungsbefehl benötigen, um die automatisch generierten Berichte zu öffnen.
  • Die Erlangung eines Durchsuchungsbefehls kann Tage oder Wochen dauern, was zu Verzögerungen bei den Ermittlungen und möglicherweise zum Verlust von Beweismitteln führt. Überdies fehlen in den Berichten häufig spezifische Informationen, die für die Erlangung eines Durchsuchungsbefehls erforderlich sind.
  • Die wachsende Zahl von KI-generierten kinderpornografischen Inhalten stellt eine erhebliche Bedrohung für Organisationen wie die Internet Watch Foundation und die Thorn Group dar, die versuchen, solche Inhalte aus dem Netz zu entfernen und Opfer ausfindig zu machen.
Quellen
Online-Journalist Matthias ist Gründer und Herausgeber von THE DECODER. Er ist davon überzeugt, dass Künstliche Intelligenz die Beziehung zwischen Mensch und Computer grundlegend verändern wird.
Community beitreten
Kommt in die DECODER-Community bei Discord,Reddit, Twitter und Co. - wir freuen uns auf euch!