Inhalt
newsletter Newsletter

Ein Video mit schwarzen Personen darin wird von einer Facebook-KI als Inhalt mit Affen kategorisiert. Der Konzern spricht von einem „inakzeptablen Fehler“.

Anzeige

Facebooks KI-Fehler trat bei einem Video der britischen Nachrichtenseite „The Daily Mail“ auf, das bei Facebook Watch veröffentlicht wurde. In dem Video sind schwarze Menschen bei Auseinandersetzungen mit weißen Zivilisten und Polizeibeamten zu sehen. Affen oder Primaten kommen in dem Video nicht vor.

Nach Ablauf des Videos fragte Facebooks KI-System Zuschauer:innen, ob sie „weiterhin Videos über Primaten sehen möchten“. Veröffentlicht wurde das Video der Daily Mail bereits am 27. Juni 2020. Ob der Fehler noch bei anderen Videos auftrat, ist derzeit nicht bekannt.

Facebook entschuldigt sich – mal wieder

Am Freitag entschuldigte sich Facebook für die Verwechslung und sprach von einem „inakzeptablem Fehler“. Das für die Video-Empfehlung verantwortliche KI-System wurde deaktiviert. Die Ursache für den Fehler soll gefunden werden, „damit sowas nicht wieder passiert“.

Anzeige
Anzeige

„Wie wir bereits gesagt haben, haben wir unsere KI zwar verbessert, aber wir wissen, dass sie nicht perfekt ist und wir noch weitere Fortschritte machen müssen. Wir entschuldigen uns bei allen, die diese beleidigenden Empfehlungen gesehen haben könnten“, sagt Facebook-Sprecherin Dani Lever.

Es ist nicht das erste Mal, dass automatisierte KI-Analysen zu krass rassistischen Resultaten führen. Bekannt ist unter anderem der Fall, bei dem Googles automatische Verschlagwortung in der Photos-App Bildern von schwarzen Menschen das Schlagwort „Gorilla“ zuwies.

Vorurteile in KI-Systemen sind nicht auf die Ethnizität beschränkt, sie betreffen auch etwa Geschlechter: Forscher:innen zeigten in einer Anfang des Jahres veröffentlichten Studie, dass Bild-generierende KI Männer eher im Anzug und Frauen eher im Bikini sieht.

Vorurteile in KI-Systemen sind ein ungelöstes Problem

Das grundlegende Problem hinter Facebooks katastrophalem Systemfehler ist tiefliegend: Heute besonders leistungsstarke KI-Systeme werden mit gigantischen Datenmengen aus dem Internet trainiert. Facebook etwa trainiert seine Bildanalyse-KI mit Milliarden verschlagworteten Instagram-Bildern. Diese im Vorfeld auf rassistische Vorurteile zu untersuchen und davon zu bereinigen, ist unmöglich.

Datensätze für das KI-Training von Anfang an kontrolliert und von Menschen zusammentragen zu lassen, ist ebenso keine Lösung: Der Arbeitsaufwand bei vergleichbaren Datenmengen wäre riesig und die Bearbeitung durch Menschen längst keine Garantie, dass die Datensätze vorurteilsfrei sind.

Empfehlung

Für die KI-Branche ist und bleiben Vorurteile in Daten daher ein ungelöstes Dilemma. Fehler wie jene von Google oder Facebook dürften sich in Zukunft wiederholen.

OpenAIs hoch gehandelte Sprach-KI GPT-3 etwa kämpft ebenfalls mit dem Vorurteilsproblem, was mit ein Grund ist für OpenAIs zurückhaltende Vermarktung des Systems. Das Unternehmen stellte kürzlich einen Lösungsansatz vor, bei dem mit vielen Daten vortrainierte KI-Systeme anschließend mit "Wertedaten" feinjustiert werden. Dieser Prozess ist ein möglicher Weg, der aber weiterer Forschung bedarf.

Über Vorurteile in großen KI-Sprachmodellen und wie man mit ihnen umgehen könnte (oder auch nicht), diskutieren wir ausführlich im MIXEDCAST #246.

Anzeige
Anzeige
Community beitreten
Kommt in die DECODER-Community bei Discord,Reddit, Twitter und Co. - wir freuen uns auf euch!

Weiterlesen über Künstliche Intelligenz:

Unterstütze unsere unabhängige, frei zugängliche Berichterstattung. Jeder Betrag hilft und sichert unsere Zukunft. Jetzt unterstützen:
Banküberweisung
Quellen
Online-Journalist Matthias ist Gründer und Herausgeber von THE DECODER. Er ist davon überzeugt, dass Künstliche Intelligenz die Beziehung zwischen Mensch und Computer grundlegend verändern wird.
Community beitreten
Kommt in die DECODER-Community bei Discord,Reddit, Twitter und Co. - wir freuen uns auf euch!