Dass Urteil eines Computers ist nicht per se neutral und analytisch, sondern durch menschliche Vorgaben geprägt. Eine Untersuchung zur Verlässlichkeit von Gesichtserkennung untermauert das eindrucksvoll.
Die Studie der MIT-Informatikerin Joy Buolamwini zeigt, dass Gesichtserkennung mit einer Genauigkeit von 99 Prozent arbeitet - vorausgesetzt, das Gesicht gehört einem weißen Mann. Umso dunkler die Hautfarbe wird und desto femininer die Gesichtszüge, desto größer wird die Fehlerquote. Bei schwarzen Frauen liegt sie bei bis zu 46 Prozent, abhängig vom Lernverfahren und den untersuchten Bildern.
Buolamwini testete drei aktuelle maschinelle Lernsysteme von Microsoft, IBM und Face++, die zum Teil kommerziell eingesetzt werden. Die Stichprobe umfasste mehr als 1200 Fotos.
Aus 385 Fotos von weißen Männern wurden 99 Prozent richtig erkannt. Weiße Frauen wurden bei 296 Bildern zu 93 Prozent richtig erkannt. Dunkelhäutige Männer wurden bei 318 Bildern mit einer Genauigkeit von 88 Prozent identifiziert, dunkelhäutige Frauen durchschnittlich bei 271 Bildern mit nur 75 Prozent.
Computer kennen nur, was man ihnen zeigt
Ein Grund für diese Diskrepanz ist laut der New York Times, dass auf 75 Prozent der Referenzbilder, mit denen die KI-Systeme trainiert werden, weiße Männer zu sehen sind. Ein möglicher technischer Faktor sind die höheren Kontraste in weißen Gesichtern. Maschinelle Lernverfahren orientieren sich bei der Bilderkennung unter anderem an Farbwerten einzelner Pixel. Dass Frauen insgesamt schlechter erkannt werden, könne auch an den vielen unterschiedlichen Frisuren liegen.
Buolamwini jedenfalls möchte zukünftig in der von ihr gegründeten "Algorithmic Justice League" die Öffentlichkeit darauf aufmerksam machen, dass man der Urteilskraft von Algorithmen nicht blind vertrauen darf. Sie können ebenso diskriminierend, sexistisch oder rassistisch sein, wie die Menschen, die sie heranziehen.
Google kennt das Problem
Dass Künstliche Intelligenz Vorurteile haben kann, ist den forschenden Techkonzernen natürlich bewusst. Googles KI-Chef John Giannandre fordert daher einen transparenten Umgang mit Algorithmen und Trainingsdaten und warnt vor dem Einsatz intransparenter KI-Systeme beispielsweise im medizinischen Sektor: "Wenn man nicht weiß, mit welchen Daten der Algorithmus trainiert wurde, dann sollte man ihm nicht trauen."
Ein Beispiel ist die Software Compas, die von US-Richtern eingesetzt werden kann, um das Rückfallrisiko eines Straftäters einzuschätzen. Wie genau die Software zu ihrer Einschätzung kommt, ist ein Betriebsgeheimnis des Herstellers Northpointe. Der Software wird nachgesagt, dass sie Vorurteile gegenüber Minderheiten und farbigen Menschen hat. Northpointe widerspricht diesem Vorwurf.
In einem aktuellen Interview mit dem Tagesspiegel sagt der Psychologe und Berater des Bundesjustizministeriums Gerd Gigerenzer: "Wir sind dabei, Milliarden in digitale Technik zu investieren. Wir sollten jedoch ebenso viel in digitale Bildung investieren, damit Menschen verstehen, was Algorithmen wirklich können und nicht können. Wir sollten nicht einfach zusehen, wie sie dazu verwendet werden, unsere Psyche und unser soziales Leben zu verändern. Wir sollten die Fernsteuerung für unser Leben wieder selbst in die Hand nehmen."