Inhalt
newsletter Newsletter

Die Welt ist noch zu komplex für KI: Fehlt das Trainingsmaterial, ist sie aufgeschmissen.

Im März tötete der Terrorist Brenton Tarrant beim Anschlag von Christchurch 50 Menschen und verletzte 50 weitere. Seine Tat übertrug er live bei Facebook. 200 Menschen sahen direkt zu, 4.000 danach - keiner der Zuschauer meldete, was passierte.

Eigentlich sollten Automatismen greifen: Mit KI-gestützter Bild- und Tonanalyse will Facebook-Chef Mark Zuckerberg verhindern, dass seine Social-Plattform als Rundfunkanstalt für Terror und Gewalt missbraucht wird. Doch der Automatismus griff nicht: Der Anschlag lief einfach so durch neben Influencer-Werbung für Lippenstift, Spiele-Streamern und Witzvideos.

In einem Statement räumte Facebook unmittelbar nach dem Anschlag ein, dass der KI schlicht das Trainingsmaterial fehle, um Gräueltaten dieses Ausmaßes verlässlich zu erkennen. Außerdem sei es schwierig, einen realen Amoklauf von visuell ähnlichem Inhalt zum Beispiel aus einem Videospiel zu unterscheiden.

Anzeige
Anzeige

Terroranschlag: Zu extrem für die KI

Facebooks KI-Chef Yann LeCun bekräftigt diese Einschätzung jetzt bei einer Veranstaltung in Facebooks KI-Forschungslabor in Paris: "Wir sind weit davon entfernt, das Problem zu lösen", sagt LeCun (via Bloomberg).

Es sei zwar möglich, die KI beispielsweise mit gewalthaltigen Szenen aus Filmen zu trainieren. Das hätte aber zur Folge, dass Inhalte mit simulierter Gewalt zukünftig ebenfalls aussortiert würden.

Hinzu käme, dass die KI sowohl mit Video- als auch mit Audiodaten trainiert werden müsse. Außerdem benötige sie wahrscheinlich individuelle Informationen über den Täter wie die Inhalte, die er zuletzt publizierte.

"Glücklicherweise haben wir nicht viele Beispiele von Menschen, die andere Menschen erschießen", sagt LeCun.

Damit sich das grausame Medienereignis Christchurch bei Facebook nicht wiederholt, will der Konzern menschliche Kontrolleure und Maschinensysteme in einem zweistufigen System einsetzen: Wenn sich die KI bei ihrer Einschätzung eines Inhalts unsicher ist, übernimmt der Mensch.

Empfehlung

In Fällen, in denen genug Trainingsmaterial vorliegt, arbeiten die KI-Systeme laut Facebook verlässlich. So sollen beispielsweise 99 Prozent der Inhalte in Verbindung mit der Terrorgruppe al-Kaida erkannt und gesperrt werden.

Auch bei drohenden Selbstmorden vor der Kamera oder bei Rachepornos sollen die Warnsysteme verlässlich alarmieren.

Quelle: Bloomberg, Titelbild: Facebook

Anzeige
Community beitreten
Kommt in die DECODER-Community bei Discord,Reddit, Twitter und Co. - wir freuen uns auf euch!
Anzeige
Community beitreten
Kommt in die DECODER-Community bei Discord,Reddit, Twitter und Co. - wir freuen uns auf euch!

Weiterlesen über Künstliche Intelligenz:

Unterstütze unsere unabhängige, frei zugängliche Berichterstattung. Jeder Betrag hilft und sichert unsere Zukunft. Jetzt unterstützen:
Banküberweisung
Online-Journalist Matthias ist Gründer und Herausgeber von THE DECODER. Er ist davon überzeugt, dass Künstliche Intelligenz die Beziehung zwischen Mensch und Computer grundlegend verändern wird.
Community beitreten
Kommt in die DECODER-Community bei Discord,Reddit, Twitter und Co. - wir freuen uns auf euch!