Die Welt ist noch zu komplex für KI: Fehlt das Trainingsmaterial, ist sie aufgeschmissen.
Im März tötete der Terrorist Brenton Tarrant beim Anschlag von Christchurch 50 Menschen und verletzte 50 weitere. Seine Tat übertrug er live bei Facebook. 200 Menschen sahen direkt zu, 4.000 danach - keiner der Zuschauer meldete, was passierte.
Eigentlich sollten Automatismen greifen: Mit KI-gestützter Bild- und Tonanalyse will Facebook-Chef Mark Zuckerberg verhindern, dass seine Social-Plattform als Rundfunkanstalt für Terror und Gewalt missbraucht wird. Doch der Automatismus griff nicht: Der Anschlag lief einfach so durch neben Influencer-Werbung für Lippenstift, Spiele-Streamern und Witzvideos.
In einem Statement räumte Facebook unmittelbar nach dem Anschlag ein, dass der KI schlicht das Trainingsmaterial fehle, um Gräueltaten dieses Ausmaßes verlässlich zu erkennen. Außerdem sei es schwierig, einen realen Amoklauf von visuell ähnlichem Inhalt zum Beispiel aus einem Videospiel zu unterscheiden.
Terroranschlag: Zu extrem für die KI
Facebooks KI-Chef Yann LeCun bekräftigt diese Einschätzung jetzt bei einer Veranstaltung in Facebooks KI-Forschungslabor in Paris: "Wir sind weit davon entfernt, das Problem zu lösen", sagt LeCun (via Bloomberg).
Es sei zwar möglich, die KI beispielsweise mit gewalthaltigen Szenen aus Filmen zu trainieren. Das hätte aber zur Folge, dass Inhalte mit simulierter Gewalt zukünftig ebenfalls aussortiert würden.
Hinzu käme, dass die KI sowohl mit Video- als auch mit Audiodaten trainiert werden müsse. Außerdem benötige sie wahrscheinlich individuelle Informationen über den Täter wie die Inhalte, die er zuletzt publizierte.
"Glücklicherweise haben wir nicht viele Beispiele von Menschen, die andere Menschen erschießen", sagt LeCun.
Damit sich das grausame Medienereignis Christchurch bei Facebook nicht wiederholt, will der Konzern menschliche Kontrolleure und Maschinensysteme in einem zweistufigen System einsetzen: Wenn sich die KI bei ihrer Einschätzung eines Inhalts unsicher ist, übernimmt der Mensch.
In Fällen, in denen genug Trainingsmaterial vorliegt, arbeiten die KI-Systeme laut Facebook verlässlich. So sollen beispielsweise 99 Prozent der Inhalte in Verbindung mit der Terrorgruppe al-Kaida erkannt und gesperrt werden.
Auch bei drohenden Selbstmorden vor der Kamera oder bei Rachepornos sollen die Warnsysteme verlässlich alarmieren.
Quelle: Bloomberg, Titelbild: Facebook