Die KI erkannte das Christchurch-Video nicht als Bedrohung, weil sie nicht auf Massenmord trainiert ist.
Zwölf Minuten dauerte es laut Facebook, bis der schon beendete Live-Stream des Christchurch-Massakers gemeldet und anschließend entfernt wurde. Rund 200 Leute sollen den Stream gesehen haben, 4.000 Menschen die aufgezeichnete Übertragung. Keiner der Live-Zuschauer drückte auf den Melden-Knopf.
Eigentlich, so sieht es die Theorie vor, hätte an dieser Stelle ein Automatismus greifen sollen. Eine Künstliche Intelligenz Facebooks, die die Nachrichtenströme durchwühlt, Kommentare auf Schlüsselworte scannt, Videobilder analysiert und aus dieser Kombination das Fazit zieht: Hier passiert etwas Schlimmes. Macht was dagegen.
Laut Facebook funktioniert das bei drohenden Selbstmorden vor der Kamera oder bei Rachepornos. Bei einem Massenmord offensichtlich nicht.
Der KI fehlten Lernbeispiele
In einem Statement liefert Facebook-Produktmanager Guy Rosen den Grund: Die Künstliche Intelligenz konnte den Massenmord mangels passender Trainingsdaten nicht als solchen identifizieren.
KI benötige tausende Beispiele eines bestimmten Inhalts, um ihn anschließend verlässlich identifizieren zu können, so Rosen. Das funktioniere gut bei Nacktaufnahmen, terroristischer Propaganda oder expliziter Gewaltdarstellung.
Ein Ereignis wie das Christchurch-Massaker, das in dieser Form erstmals passiert ist, schlüpft folglich unerkannt durch das Überwachungsnetz der Künstlichen Intelligenz.
Eine weitere Herausforderung laut Rosen: Die KI müsse lernen, einen gefährlichen Inhalt von visuell ähnlichen, harmlosen Inhalten zu unterscheiden - wie Live-Streams aus Videospielen.
"Wenn beispielsweise tausende Videos aus Live-Streaming-Videospielen von unseren Systemen markiert werden, könnten unsere Prüfer die wichtigen realen Videos verpassen, wo wir Ersthelfer alarmieren könnten für Hilfe vor Ort", schreibt Rosen.
Quelle: Facebook, Titelbild: Facebook