Inhalt
newsletter Newsletter

Die Stadt New York wollte in einem groß angelegten Test Autofahrer per Gesichtserkennung identifizieren. Das Ergebnis: Ein System von beeindruckender Ungenauigkeit.

Anzeige

Für das Pilotprogramm wurden Kameras auf der Robert F. Kennedy Brücke installiert. Die sollten Gesichter von Autofahrern durch ihre Windschutzscheibe erfassen und mit Datenbanken der Regierung abgleichen.

In einer internen E-Mail des staatlichen Verkehrsunternehmens „Metropolitan Transportation Authority“ (MTA) heißt es, die erste Testphase sei abgeschlossen - und gescheitert. Es seien „keine Gesichter (0 %) innerhalb akzeptabler Parameter“ erkannt worden.

Mit anderen Worten: Die Gesichtserkennung identifizierte kein einziges Gesicht so verlässlich, dass die Daten verwertet werden konnten.

Anzeige
Anzeige

Tests gehen weiter

Der Grund für das Versagen: Aktuelle Technologie sei noch nicht in der Lage, Gesichter bei hohen Geschwindigkeiten zuverlässig zu identifizieren. Die Hoffnung der Stadt ist offenbar, dass sich das bald ändert: New York will die Gesichtserkennung nicht aufgeben und weitere Kameras an öffentlichen Plätzen installieren.

Dahinter steht das Versprechen an die Bürger, die Sicherheit der Stadt zu erhöhen. Fast eine Million Fahrzeuge erfasst das Verkehrsunternehmen MTA täglich auf sieben Brücken und zwei Tunneln. Eine breit angelegte, funktionierende Überwachung könnte etwa Terroristen identifizieren, bevor sie in der Stadt verschwinden, so die Hoffnung.

KI-Überwachung: Ethische und technische Grenzen

Das Pilotprojekt in New York zeigt, wie weit der Weg noch ist zu Erkennungssystemen, die nachweislich und verlässlich das korrekte Ergebnis ausspucken bei möglichst geringer oder im Optimalfall keiner Fehlerquote.

Diese angestrebte Verlässlichkeit ist ein Schwert mit zwei Schneiden. Einerseits ermöglicht sie eine lückenlose Überwachung einzelner Menschen. Das mag in bestimmte Szenarien Sicherheit bringen, die Technologie könnte aber auch für einen Überwachungsstaat missbraucht werden. Das zeigt zum Beispiel Chinas Scoring-System für die eigenen Bürger.

Andererseits führen Fehlentscheidungen unzuverlässiger Erkennungssysteme ebenfalls zu drastischen Konsequenzen: Amazons KI-gestützte Rekognition-Software beispielsweise wird Rassismus vorgeworfen. In China verwechselte eine KI-Kamera ein Werbefoto auf einem Bus mit der realen Person – und demütigte sie öffentlich wegen einer vermeintlichen Straßenüberquerung bei roter Fußgängerampel.

Empfehlung

Quellen: Technologyreview, WSJNextweb

Anzeige
Anzeige
Community beitreten
Kommt in die DECODER-Community bei Discord,Reddit, Twitter und Co. - wir freuen uns auf euch!

Weiterlesen über Künstliche Intelligenz

Unterstütze unsere unabhängige, frei zugängliche Berichterstattung. Jeder Betrag hilft und sichert unsere Zukunft. Jetzt unterstützen:
Banküberweisung
Max ist leitender Redakteur bei THE DECODER. Als studierter Philosoph beschäftigt er sich mit dem Bewusstsein, KI und der Frage, ob Maschinen wirklich denken können oder nur so tun als ob.
Community beitreten
Kommt in die DECODER-Community bei Discord,Reddit, Twitter und Co. - wir freuen uns auf euch!