Inhalt
newsletter Newsletter

Im März warnte Facebooks KI-gestütztes Erkennungssystem nicht, als ein Amokläufer seine Taten als Live-Video streamte. Auf der Suche nach einer Lösung für solche Ausfälle wähnt sich Facebook nun einen Schritt weiter.

Beim Anschlag von Christchurch im März tötete der Terrorist Brenton Tarrant 50 Menschen und verletzte 50 weitere. Seinen Amoklauf streamte er live bei Facebook. Tausende Zuschauer sahen das Video, keiner von ihnen meldete die Tat. Das Video wurde später millionenfach erneut hochgeladen - Facebooks automatisches KI-gestütztes Warnsystem blieb stumm.

Der Grund laut Facebook: Das Trainingsmaterial fürs KI-Training fehlte. Bilder aus der ersten Perspektive von Amokläufen gibt es wenige. Zu wenige, um eine Künstliche Intelligenz für die verlässliche Erkennung entsprechender Szenen zu trainieren. Denn deren Algorithmus arbeitet nur verlässlich, wenn er zuvor tausende Beispiele auf Muster untersuchen durfte.

Es sei außerdem schwierig für eine KI, einen tatsächlichen Amoklauf von Szenen aus Videospielen zu unterscheiden. Das Training mit gewalthaltigen Szenen aus Filmen sei zu generisch und sorge dafür, dass Inhalte mit simulierter Gewalt ebenfalls gesperrt würden.

Anzeige
Anzeige

Die Polizei hilft - mit Trainingsmaterial

Jetzt gibt Facebook bekannt, dass es zukünftig mit Polizeibehörden in den USA und UK kooperiert, um weitere Livestream-Amokläufe zu verhindern.

Das Tech-Unternehmen erhält von UK-Behörden ab Oktober viele Stunden Videoaufnahmen von Polizei-Waffentrainings. Die sind mit Körperkameras aus der ersten Perspektive gefilmt - ähnlich wie beim Anschlag von Christchurch. Auch andere Unternehmen, die KI-Erkennungstechnologie entwickeln, sollen die Aufnahmen erhalten. Facebooks Verhandlungen in den USA laufen noch, Informationen zu Kooperationen soll es in naher Zukunft geben.

Mit den Polizeivideos soll Facebooks KI-Erkennung so trainiert werden können, dass Amokläufe und generell Angriffe mit Schusswaffen in Facebook-Videos zukünftig verlässlich erkannt und gesperrt werden.

Facebooks Technologie könne dabei helfen, Angriffe mit Schusswaffen frühzeitig zu erkennen und so weltweit die Polizei bei ihrer Arbeit unterstützen, sagt der Anti-Terror-Spezialist Neil Basu der britischen Polizeibehörde. Technologie, die entsprechende Live-Übertragungen automatisch erkennt und stoppt, könne außerdem die Verherrlichung solcher Taten und die Verbreitung des damit einhergehenden "toxischen Gedankenguts" signifikant reduzieren.

Quelle & Titelbild: Facebook; Via: Cnet

Anzeige
Community beitreten
Kommt in die DECODER-Community bei Discord,Reddit, Twitter und Co. - wir freuen uns auf euch!
Anzeige
Community beitreten
Kommt in die DECODER-Community bei Discord,Reddit, Twitter und Co. - wir freuen uns auf euch!
Empfehlung

Weiterlesen über Künstliche Intelligenz:

Unterstütze unsere unabhängige, frei zugängliche Berichterstattung. Jeder Betrag hilft und sichert unsere Zukunft. Jetzt unterstützen:
Banküberweisung
Online-Journalist Matthias ist Gründer und Herausgeber von THE DECODER. Er ist davon überzeugt, dass Künstliche Intelligenz die Beziehung zwischen Mensch und Computer grundlegend verändern wird.
Community beitreten
Kommt in die DECODER-Community bei Discord,Reddit, Twitter und Co. - wir freuen uns auf euch!