Inhalt
newsletter Newsletter
DEEP MINDS Podcast
Podcast über Künstliche Intelligenz und Wissenschaft
DEEP MINDS #13: KI in Deutschland & Aleph Alpha

Die KI erkannte das Christchurch-Video nicht als Bedrohung, weil sie nicht auf Massenmord trainiert ist.

Zwölf Minuten dauerte es laut Facebook, bis der schon beendete Live-Stream des Christchurch-Massakers gemeldet und anschließend entfernt wurde. Rund 200 Leute sollen den Stream gesehen haben, 4.000 Menschen die aufgezeichnete Übertragung. Keiner der Live-Zuschauer drückte auf den Melden-Knopf.

Eigentlich, so sieht es die Theorie vor, hätte an dieser Stelle ein Automatismus greifen sollen. Eine Künstliche Intelligenz Facebooks, die die Nachrichtenströme durchwühlt, Kommentare auf Schlüsselworte scannt, Videobilder analysiert und aus dieser Kombination das Fazit zieht: Hier passiert etwas Schlimmes. Macht was dagegen.

Laut Facebook funktioniert das bei drohenden Selbstmorden vor der Kamera oder bei Rachepornos. Bei einem Massenmord offensichtlich nicht.

Anzeige
Unterstütze unsere unabhängige, frei zugängliche Berichterstattung. Jeder Betrag hilft und sichert unsere Zukunft. Jetzt unterstützen:
Banküberweisung

Der KI fehlten Lernbeispiele

In einem Statement liefert Facebook-Produktmanager Guy Rosen den Grund: Die Künstliche Intelligenz konnte den Massenmord mangels passender Trainingsdaten nicht als solchen identifizieren.

KI benötige tausende Beispiele eines bestimmten Inhalts, um ihn anschließend verlässlich identifizieren zu können, so Rosen. Das funktioniere gut bei Nacktaufnahmen, terroristischer Propaganda oder expliziter Gewaltdarstellung.

Ein Ereignis wie das Christchurch-Massaker, das in dieser Form erstmals passiert ist, schlüpft folglich unerkannt durch das Überwachungsnetz der Künstlichen Intelligenz.

Eine weitere Herausforderung laut Rosen: Die KI müsse lernen, einen gefährlichen Inhalt von visuell ähnlichen, harmlosen Inhalten zu unterscheiden – wie Live-Streams aus Videospielen.

„Wenn beispielsweise tausende Videos aus Live-Streaming-Videospielen von unseren Systemen markiert werden, könnten unsere Prüfer die wichtigen realen Videos verpassen, wo wir Ersthelfer alarmieren könnten für Hilfe vor Ort“, schreibt Rosen.

Empfehlung

Quelle: Facebook, Titelbild: Facebook

Weiterlesen über Künstliche Intelligenz:

Anzeige
Unterstütze unsere unabhängige, frei zugängliche Berichterstattung. Jeder Betrag hilft und sichert unsere Zukunft. Jetzt unterstützen:
Banküberweisung
Community beitreten
Kommt in die DECODER-Community bei Discord,Reddit, Twitter und Co. - wir freuen uns auf euch!
Unterstütze unsere unabhängige, frei zugängliche Berichterstattung. Jeder Betrag hilft und sichert unsere Zukunft. Jetzt unterstützen:
Banküberweisung
Online-Journalist Matthias ist Gründer und Herausgeber von THE DECODER. Er ist davon überzeugt, dass Künstliche Intelligenz die Beziehung zwischen Mensch und Computer grundlegend verändern wird.
Community beitreten
Kommt in die DECODER-Community bei Discord,Reddit, Twitter und Co. - wir freuen uns auf euch!