Titelbild von Denis Apel - Eigenes Werk, CC BY-SA 4.0, Link
Ein Jahr lang testete die Bundespolizei KI-Überwachung am Berliner Südkreuz. Der KI-Forscher Florian Gallwitz kritisiert das Fazit der Behörde und warnt vor negativen Konsequenzen.
Vom 1. August 2017 bis zum 31. Juli 2018 testete die Bundespolizei im Auftrag des Bundesinnenministeriums KI-Gesichtserkennung am Bahnhof Berlin Südkreuz. Drei Gesichtserkennungssysteme der Hersteller Anyvision, Herta Security und Morpho/IDEMIA analysierten die Kameraaufnahmen von Freiwilligen aus markierten Erkennungsbereichen. Ausgewählte Testpersonen betraten den Bahnhof zu unterschiedlichen Zeiten und Situationen und wurden von den Systemen erkannt – oder auch nicht.
Dem Bundespolizeipräsidium Potsdam zufolge war das Projekt ein voller Erfolg: Es könne festgestellt werden, dass „die aktuell auf dem Markt verfügbare Gesichtserkennungstechnik aus technischer Sicht für den polizeilichen Einsatz auf dem Gebiet der Bahnanlagen der Eisenbahnen des Bundes in Verbindung mit der aktuell durch die Deutsche Bahn AG verwendeten Videotechnik geeignet ist.“ So steht es im Abschlussbericht des Testlaufs.
„Reif für den produktiven Einsatz“
In einem Fachgespräch über die technische und verfassungsrechtliche Machbarkeit biometrischer Gesichtserkennung in der Polizeiarbeit der Konrad-Adenauer-Stiftung wiederholte der Technische Projektleiter des Pilotprojektes, Leonid Scharf, diese Einschätzung: „Die sehr guten Ergebnisse bestätigen die technische Reife und polizeiliche Verwendbarkeit der Systeme“, heißt es in den von ihm vorgelegten Thesen.
Im Test zeigte sich, dass ein genaueres System auch häufiger Fehlalarme produziert. Erst mit einer Kombination aus mehreren Systemen konnte die Falschtrefferrate reduziert werden: Bei 100.000 erfassten Fahrgästen würde eine Kombination der zwei besten Systeme am Tag lediglich 0,18 Falschtreffer produzieren, die von Beamten geprüft und verworfen werden müssten, schreibt Scharf. Das wären pro Monat 5,4 und in einem Jahr etwa 66 Falschtreffer.
Die Erkennungsgenauigkeit des kombinierten Systems liegt bei etwa 68 Prozent. Sollten sich also 100 zur Fahndung ausgeschriebene Personen im Jahr durch den Bahnhof bewegen, produziert das System 134 Treffer: 68 richtige und die auch ohne Verdächtige ausgelösten 66 Fehlalarme.
Die Beispielrechnung des kombinierten Systems belege eindeutig, dass die Gesichtserkennungstechnik reif für den produktiven Einsatz sei und einen Mehrwehrt für die polizeiliche Arbeit bringe.
Unrealistische Bedingungen
Am Fachgespräch nahm auch Prof. Dr.-Ing. Florian Gallwitz der TH Nürnberg teil. Der deutsche Forscher ist spezialisiert auf Mustererkennung mit den Schwerpunkten Bild- und Spracherkennung, maschinelles Lernen und Deep Learning.
Die besten verfügbaren Gesichtserkennungssysteme seien ohne Frage genauer als Menschen, aber eben nicht fehlerfrei, erklärt Gallwitz: Schlechte Lichtverhältnisse, ungünstige Perspektiven, teilweise Verdeckung des Gesichts, Alterung oder unterschiedliche Kameraoptiken und -auflösungen mindern die Erkennungsgenauigkeit.
In dem Pilotprojekt der Bundespolizei seien diese Störfaktoren jedoch minimiert worden: Die Bilder der Testpersonen für die Datenbank der KI-Systeme seien mit den gleichen Kameras geschossen worden, die auch zur Gesichtserkennung genutzt wurden, das heißt, Kameraoptik und -auflösung ändern sich nicht. Es standen außerdem mehrere dieser Bilder zur Verfügung, die mutmaßlich so ausgewählt wurden, dass sie variable Beleuchtungsverhältnisse und Perspektiven beinhalteten.
Alterseffekte, Bartwuchs, Brillen und andere zeitlich bedingte visuelle Veränderungen seien durch den kurzen Verlauf des Projekts ebenfalls ohne Wirkung. Eine Fahndung etwa auf der Basis eines 15 Jahre alten Passfotos sei nicht mit den Bedingungen des Testlaufs zu vergleichen – es sei mit einer Vervielfachung der Fehlerrate zu rechnen.
Hinzu käme, dass die Testpersonen vermutlich bewusst oder unbewusst häufiger in Richtung der installierten Kameras geschaut hätten. Das helfe der Trefferrate und sei nicht mit einem Kriminellen zu vergleichen, der sich der Erkennung bewusst entziehen würde beispielsweise durch eine Schirmmütze oder den Blick nach unten.
Im echten Einsatz lägen Genauigkeit und Falschtrefferrate daher wohl weit über den Ergebnissen des Pilotprojekts.
Unangenehme Konsequenzen
Hinzu kommt: Natürlich können auch Polizisten Verdächtige falsch identifizieren. Durch die automatisierte KI-Überwachung ist allerdings davon auszugehen, dass mehr und schneller überwacht wird, was in insgesamt mehr Fehlalarmen und damit auch zu mehr ungerechtfertigten Kontrollen führt.
Denn auch wenn die Falschtrefferrate stabil bliebe, stelle die verbleibende Ungenauigkeit für eine Echtzeit-Überwachung ein erhebliches Problem dar, mein Gallwitz. Eine deutschlandweite Fahndung nach einem Schwerkriminellen oder Terroristen mit einem solchen System würde täglich Dutzende Fehlalarme produzieren.
In der Regel löse ein Blick eines Polizeibeamten auf die Kamerabilder das Problem nicht – schließlich sind die KI-Systeme genauer und eine Ähnlichkeit der Person zumindest wahrscheinlich. Daher sei eine Personenkontrolle zu erwarten, die unter der Annahme stattfinde, dass es sich um einen gesuchten, möglicherweise bewaffneten Schwerkriminellen handle. Ein überwiegender Anteil dieser Kontrollen würde zu Unrecht erfolgen.
Unabhängig dieser Zahlen äußert Gallwitz eine fundamentale Kritik an Gesichtserkennungssystemen: „Der Staat könnte alternativ durch Zugriff auf die gespeicherten Passfotos der Bürger ein umfassendes Überwachungssystem realisieren. Die Möglichkeit, sich anonym in der Öffentlichkeit zu bewegen, würde damit der Vergangenheit angehören.“
Er fordert daher eine strenge gesetzliche Regulierung des Einsatzes entsprechender Systeme durch staatliche Stellen, Privatpersonen und Firmen.
Bereits die automatische Erfassung von Kennzeichen ist in Deutschland stark reguliert
Solche Regulierungen sind gerade in Deutschland wahrscheinlich: Die beiden Juristen Professor Dr. Klaus F. Gärditz und PD Dr. Andreas Kulick verweisen im Fachgespräch auf die hohen Hürden des Einsatzes von Gesichtserkennungssystemen.
Die bestehende Rechtsprechung unterwerfe schon die automatische Erfassung und Auswertung von Fahrzeugkennzeichen hohen Rechtfertigungsanforderungen. Dort sind anlasslose oder flächendeckende Maßnahmen unzulässig.
Darüber hinaus gehört es nach dem Bundesverfassungsgericht zur „Freiheitlichkeit des Gemeinwesens“, dass „sich die Bürgerinnen und Bürger grundsätzlich fortbewegen können, ohne dabei beliebig staatlich registriert zu werden, hinsichtlich ihrer Rechtschaffenheit Rechenschaft ablegen zu müssen und dem Gefühl eines ständigen Überwachtwerdens ausgesetzt zu sein“ (BVerfGE 150, 244 [268]).
Daraus folge, dass für Maßnahmen der Gesichtserkennung erheblich strengere Voraussetzungen gelten müssten, sagt Kulick.
Automatisierte KI-Gesichtserkennung: Kritik wächst
Das politische Klima in Deutschland und vor allem den USA hat sich spätestens seit der Clearview-Enthüllung der New York Times im Januar geändert. Die Gesichtserkennungs-App ClearView schockte auch diejenigen, die dem Thema bisher keine große Aufmerksamkeit schenkten.
Bundesinnenminister Horst Seehofer (CSU) trat kurz nach der Clearview-Enthüllung öffentlich von seinen ursprünglichen Plänen zurück, den Einsatz von biometrischen Gesichtserkennungssystemen auszuweiten und die EU-Kommission plant wohl eine geregelte Gesichtserkennungs-Auszeit von bis zu fünf Jahren.
Wie die Analysen von Gärditz und Kulick zeigen, ist der Grund für Seehofers Sinneswandel wohl nicht ausschließlich schlechte Publicity durch ClearView – es existieren bereits rechtliche Hürden in Deutschland.
Aufgegeben haben die Sicherheitsbehörden ihren Wunsch nach Gesichtserkennungs-Software wohl noch lange nicht: Der innenpolitische Sprecher der Unionsfraktion, Mathias Middelberg (CDU), sagte im Januar gegenüber der Tagesschau: „Wir wollen daran festhalten: die Bundespolizei sollte künftig in klar definierten Grenzen Kameras zur Gesichtserkennung einsetzen dürfen.“
Es gehe nicht um eine flächendeckende Überwachung der Bürger, sondern um „die gezielte Suche nach Schwerstkriminellen und Terroristen an besonders gefährdeten Bahnhöfen oder Flughäfen“. Mit Gesichtserkennungssystemen hätte man etwa den Terroristen Anis Amri, der im Dezember 2016 zwölf Menschen in Berlin tötete, auf seiner Flucht aufspüren können, sagt Middelberg.
Was von solchen und anderen Argumenten zu halten ist, haben wir in unserem Artikel über das Für und Wider der KI-Überwachung analysiert. Außerdem diskutieren wir das Thema im MIXED.de Podcast #180.