Die USA soll gerechter werden und Rassismus eindämmen. Zu diesem Schritt gehört für IBM der Verzicht auf KI-gestützte Gesichtserkennungstechnologie.
Nach dem durch einen Polizisten herbeigeführten gewaltsamen Tod des Schwarzen George Floyd steht das US-Polizeisystem auf dem Prüfstand. Der Gesetzesvorschlag Justice in Policing Act of 2020 beschreibt umfangreiche Reformen, zu denen auch der Verzicht auf rassistische, religiöse und diskriminierende Profilerstellung gehört.
In einem Brief an den Kongress wendet sich IBM CEO Arvind Krishna an am Gesetzesentwurf beteiligte Senatoren und verurteilt KI-gestützte Gesichtserkennungstechnologie. IBM lehnt Gesichtserkennung für Massenüberwachung und rassistische Profilerstellung generell ab und befürchtet Verletzungen grundlegender Menschenrechte und Freiheiten.
"Wir glauben, dass es jetzt an der Zeit ist, einen nationalen Dialog darüber zu beginnen, ob und wie Gesichtserkennungstechnologie von den inländischen Strafverfolgungsbehörden eingesetzt werden sollte", schreibt Krishna.
Anbieter und Nutzer von KI-Systemen seien gleichermaßen dafür verantwortlich, dass eine KI auf Vorurteile getestet wird - gerade dann, wenn sie in der Strafverfolgung eingesetzt würde. Diese Tests müssten dokumentiert und berichtet werden.
KI-Gesichtserkennung: IBM steigt aus
IBM verkaufte der New Yorker Polizei nach den Terroranschlägen vom September 2001 erstmals Software, die Personen anhand der Haut- oder Haarfarbe identifizieren sollte.
Das Unternehmen führt außerdem eine Videoanalysesoftware, die in den Aufnahmen von Körperkameras der Polizei Menschen nach Herkunft filtert. Jetzt stoppt IBM die Forschung und Entwicklung von KI-Gesichtserkennung.
Ähnlich wie IBM positionierte sich zuvor Google: Die Technologie wird vom Konzern zwar weiter entwickelt, aber nicht mehr verkauft, bevor nicht eindeutige Regeln zu ihrem Einsatz existieren. Microsoft und Amazon vertreiben KI-Gesichtserkennungssoftware an Unternehmen und Behörden.
Zuletzt geriet IBM im KI-Kontext in die Kritik, als es einen Gesichtsdatensatz für das KI-Training mit Bildern der Fotoplattform Flickr veröffentlichte, ohne zuvor das Einverständnis der fotografierten Personen eingeholt zu haben.
Rassistische Vorurteile in Datensätzen
Neben einer gefährlichen, automatisierten Allmacht wird KI-Überwachung häufig vorgeworfen und auch nachgewiesen, bestehende Vorurteile gegenüber Minderheiten zu übernehmen und zu verstärken. Das liegt in der Natur der Technologie, die mit umfangreichen Datensätzen trainiert wird, in denen Minderheiten ebenso unterrepräsentiert sein können wie in der echten Welt.
Der Rückgriff auf schon im Rechtssystem vorhandene Daten birgt ebenfalls Risiken: Ein KI-System, das beispielsweise mit Verhaftungsinformationen einer rassistischen Polizeibehörde trainiert wird, übernimmt diesen Rassismus ungefragt und verschleiert ihn als vermeintlich objektives Maschinenurteil.
In China wird KI-Gesichtserkennung in Kombination mit weiteren Methoden gezielt für die Überwachung einer ethnischen Minderheit eingesetzt. In den USA geriet zuletzt die ebenfalls von Behörden für die Überwachung genutzte KI-Software Clearview AI in die Kritik.
Via: CNBC, IBM, The Verge; Titelbild: IBM