Inhalt
newsletter Newsletter

Ein Kunstprojekt macht auf Vorurteile bei Künstlicher Intelligenz aufmerksam, indem es Bildern von Menschen Eigenschaften zuordnet.

Anzeige

Die Künstlerin Trevor Paglen und die KI-Forscherin Kate Crawford haben gemeinsam das Projekt "ImageNet Roulette" erschaffen: Interessierte können auf einer Webseite ein Foto von sich hochladen. Anschließend wird es von einer KI analysiert und klassifiziert.

Im Hintergrund arbeitet eine mit dem ImageNet-Datensatz trainierte Bilderkennungs-KI. Dieser Datensatz enthält über 14 Millionen Bilder, die per Hand klassifiziert wurden: Katzen sind als Katzen markiert, Autos als Autos und so weiter. Insgesamt gibt es mehr als 20.000 Kategorien.

Uralte Kategorien führen zu rassistischen Ergebnissen

Von diesen 20.000 Kategorien sind 2.833 Unterkategorien der übergeordneten Klassifikation "Person". Wie alle ImageNet-Kategorien wurden die Attribute von Lohnarbeitern über Amazons Mechanical Turk zusammengeklickt. Diese Arbeiter bekommen Bilder zu sehen und wählen aus vorher festgelegten Attributen das passende aus.

Anzeige
Anzeige

Die zur Auswahl bereitstehenden Attribute kommen vom WordNet-Datensatz, der seit den 1980ern eine komplette, hierarchische Übersicht über die englische Sprache geben will. WordNet ist daher eine Art Wörterbuch, in dem die Wörter nicht in alphabetischer Reihenfolge, sondern in Relation zu anderen Worten dargestellt wird. So taucht das Wort "Hund" etwa unter "Hundeartigen" auf und diese wiederum unter der Klasse "Säugetiere".

Was bei Hunden und Bäumen unproblematisch ist, zeigt sich beim Menschen als Altlast: ImageNet erlaubte durch WordNet die Klassifikation von Menschen nach Hautfarbe, Nationalität, Beruf, Finanzkraft, Verhalten, Charakter oder sogar Moral. Je nach Bild kommt es bei Porträts so zu Einordnungen wie "Großvater", "Chief Executive Officer", "Pfeifenraucher", "Gangmitglied" oder auch "Waisenkind".

Projekt soll Vorurteile in Daten erlebbar machen

Die Ergebnisse des ImageNet Roulettes sind daher manchmal lustig, häufig falsch und auffällig rassistisch. Menschen mit dunkler Hautfarbe klassifiziert die KI etwa schnell als Waisenkind. Mancher Mann wird als "mutmaßlicher Vergewaltiger" klassifiziert.

Die durch WordNet bereitgestellte breite Auswahl an Zuschreibungen rächt sich: Die Vorurteile der Klickarbeiter finden sich versteckt im Datensatz und kommen durch das Kunstprojekt zu Tage.

Paglen und Crawford wollen mit ihrem Kunstprojekt zeigen, was passiert, wenn ein technisches System mit problematischen Daten trainiert wird. Gemeint ist damit: ImageNet erbt Kategorien vom über 30 Jahre alten WordNet-Datensatz und so führt die vermeintliche Neutralität eines Algorithmus in Wirklichkeit zur Verstärkung von in Datensätzen angelegten Vorurteilen.

Empfehlung

Googles ehemaliger KI-Chef John Giannandre, mittlerweile bei Apple tätig, fordert daher einen transparenten Umgang mit Algorithmen und Trainingsdaten: "Wenn man nicht weiß, mit welchen Daten der Algorithmus trainiert wurde, dann sollte man ihm nicht trauen."

Anzeige
Anzeige
Community beitreten
Kommt in die DECODER-Community bei Discord,Reddit, Twitter und Co. - wir freuen uns auf euch!

Weiterlesen über Künstliche Intelligenz:

Unterstütze unsere unabhängige, frei zugängliche Berichterstattung. Jeder Betrag hilft und sichert unsere Zukunft. Jetzt unterstützen:
Banküberweisung
Max ist leitender Redakteur bei THE DECODER. Als studierter Philosoph beschäftigt er sich mit dem Bewusstsein, KI und der Frage, ob Maschinen wirklich denken können oder nur so tun als ob.
Community beitreten
Kommt in die DECODER-Community bei Discord,Reddit, Twitter und Co. - wir freuen uns auf euch!