Von der Gesichtserkennung bis zur Beweisfälschung: KI hält Einzug in die Strafjustiz. Angesichts wachsender Bedenken hinsichtlich Datenschutz, Voreingenommenheit und Menschenrechten betont unser Gastautor die dringende Notwendigkeit einer rechtlichen und ethischen Aufsicht.
Der Generalsekretär von Interpol, Jürgen Stock, warnte kürzlich, dass KI mit Hilfe von Fälschungen, Stimmsimulationen und gefälschten Dokumenten Verbrechen in "industriellem Ausmaß" begünstigt.
Auch die Polizei auf der ganzen Welt setzt auf KI-Tools wie Gesichtserkennung, automatische Nummernschildleser, Schusswaffenkennungssysteme, Social-Media-Analysen und sogar Polizeiroboter. Der Einsatz von KI durch Anwälte steigt ebenfallssprunghaftan, da Richter neue Richtlinien für den Einsatz von KI erlassen haben.
KI verspricht zwar eine Umgestaltung der Strafjustiz, indem sie die operative Effizienz erhöht und die öffentliche Sicherheit verbessert, birgt aber auch Risiken in Bezug auf Datenschutz, Rechenschaftspflicht, Fairness und Menschenrechte.
Die Bedenken hinsichtlich der Voreingenommenheit und Diskriminierung durch KI sind gut dokumentiert. Ohne Schutzmaßnahmen besteht die Gefahr, dass KI die Grundsätze der Wahrheit, Fairness und Rechenschaftspflicht untergräbt, auf die unser Justizsystem angewiesen ist.
In einem kürzlich erschienenen Bericht der University of British Columbia's School of Law, Künstliche Intelligenz und Strafjustiz: Eine Fibel haben wir die unzähligen Möglichkeiten aufgezeigt, wie sich KI bereits auf die Menschen im Strafrechtssystem auswirkt. Hier sind einige Beispiele, die die Bedeutung dieses sich entwickelnden Phänomens verdeutlichen.
Versprechen und Gefahren des Einsatzes von KI durch die Polizei
Im Jahr 2020 deckte eine Untersuchung der New York Times die weitreichende Reichweite von Clearview AI auf, einem amerikanischen Unternehmen, das eine Gesichtserkennungsdatenbank mit mehr als drei Milliarden Bildern aufgebaut hatte, die es ohne Zustimmung der Nutzer aus dem Internet, einschließlich sozialer Medien, zusammengetragen hatte.
Polizeibehörden auf der ganzen Welt, die das Programm nutzten, darunter auch mehrere in Kanada, sahen sich mit öffentlichen Reaktionen konfrontiert. Aufsichtsbehörden in mehreren Ländern stellten fest, dass das Unternehmen gegen Datenschutzgesetze verstoßen hatte. Das Unternehmen wurde aufgefordert, seinen Betrieb in Kanada einzustellen.
Clearview AI ist weiterhin aktiv und kann auf Erfolge verweisen, wie z. B. die Entlastung einer zu Unrecht verurteilten Person durch die Identifizierung eines Zeugen an einem Tatort, die Identifizierung eines Kindes, das ausgebeutet wurde, was zu seiner Rettung führte, und sogar die Erkennung potenzieller russischer Soldaten, die versuchen, ukrainische Kontrollpunkte zu infiltrieren.
Es gibt jedoch seit langem Bedenken, dass die Gesichtserkennung für falsch-positive Ergebnisse und andere Fehler anfällig ist, insbesondere wenn es um die Identifizierung Schwarzer und anderer rassistisch geprägter Menschen geht, was den systemischen Rassismus, die Voreingenommenheit und die Diskriminierung verschärft.
Einige kanadische Strafverfolgungsbehörden, die in die Kontroverse um die Clearview-KI verwickelt waren, haben inzwischen mit neuen Maßnahmen reagiert, z. B. mit den Richtlinien der Polizei von Toronto zum Einsatz von KI und dem Transparenzprogramm der RCMP.
Andere jedoch, wie die Polizei von Vancouver, haben versprochen, Richtlinien zu entwickeln, dies aber nicht getan, während sie gleichzeitig Zugang zu den Aufnahmen der städtischen Verkehrskameras suchen.
Die Regulierung des polizeilichen Einsatzes von KI ist ein dringendes Anliegen, wenn wir die Versprechen und Gefahren des KI-Einsatzes sicher beherrschen wollen.
Gefälschte Beweise vor Gericht
Ein weiterer Bereich, in dem KI die Strafjustiz vor Herausforderungen stellt, sind gefälschte Beweise, einschließlich KI-generierter Dokumente, Audios, Fotos und Videos.
Das Phänomen hat bereits zu Fällen geführt, in denen eine Partei behauptet, dass die Beweise der anderen Partei gefälscht sind, wodurch sie in Zweifel gezogen werden, selbst wenn sie rechtmäßig sind. Dies wurde als "Lügendividende" bezeichnet.
Ein viel beachtetes Beispiel für Anschuldigungen im Zusammenhang mit gefälschten Beweisen war der Fall von Joshua Doolin, der im Zusammenhang mit dem Aufstand vor dem US-Kapitol am 6. Januar 2021 angeklagt und schließlich verurteilt wurde. Doolins Anwalt forderte, dass Staatsanwälte verpflichtet werden sollten, Videobeweise von YouTube zu authentifizieren, was Bedenken hinsichtlich der möglichen Verwendung von Deepfakes weckte.
Geschworene könnten besonders anfällig für Zweifel an potenziellen Deepfakes sein, wenn sie von Prominenten oder ihrer eigenen Nutzung von KI-Technologien erfahren haben.
Auch die Richter schlagen Alarm, weil es immer schwieriger wird, immer raffiniertere Deepfake-Beweise zu erkennen, die vor Gericht zugelassen werden. Es besteht die Sorge, dass es zu einer falschen Verurteilung oder einem Freispruch kommen könnte.
Ich habe persönlich von einer Reihe von Juristen, einschließlich Richtern und Anwälten, gehört, dass sie sich mit diesem Problem schwer tun. Es ist ein häufiges Thema bei juristischen Seminaren und Fortbildungsveranstaltungen für Richter. Solange die Berufungsgerichte sich nicht eindeutig zu diesem Thema äußern, wird die Rechtsunsicherheit bestehen bleiben.
Algorithmen zur Risikobewertung
Stellen Sie sich vor, ein für Sie unverständlicher KI-Algorithmus würde Sie als fluchtgefährdet oder hochgradig rückfallgefährdet einstufen, und ein Richter oder Bewährungsausschuss würde diese Information nutzen, um Ihre Entlassung aus der Haft zu verweigern. Diese dystopische Realität ist keine Fiktion, sondern in vielen Teilen der Welt Realität.
Automatisierte algorithmische Entscheidungsfindung wird bereits in verschiedenen Ländern für Entscheidungen über den Zugang zu staatlichen Leistungen und Wohnraum, die Bewertung des Risikos häuslicher Gewalt, Entscheidungen über die Einwanderung und eine Vielzahl von Strafrechtsanwendungen eingesetzt, von Kautionsentscheidungen über die Verurteilung bis hin zur Klassifizierung von Gefängnissen und Bewährungsentscheidungen.
Menschen, die von diesen Algorithmen betroffen sind, erhalten in der Regel keinen Zugang zu der zugrunde liegenden proprietären Software. Und selbst wenn sie es könnten, handelt es sich oft um "Black Boxes", in die man nicht eindringen kann.
Schlimmer noch: Die Untersuchung einiger Algorithmen hat ernsthafte Bedenken hinsichtlich rassistischer Verzerrungen ergeben. Ein Hauptgrund für dieses Problem ist, dass KI-Modelle auf Daten aus Gesellschaften trainiert werden, in denen es bereits systemischen Rassismus gibt. "Garbage in, garbage out" ist ein häufig verwendetes Sprichwort, um dies zu erklären.
Förderung der Innovation bei gleichzeitiger Wahrung der Gerechtigkeit
Der Bedarf an legaler und ethischer KI in Hochrisikosituationen im Zusammenhang mit der Strafjustiz ist von größter Bedeutung. Es besteht zweifellos Bedarf an neuen Gesetzen, Vorschriften und Strategien, die speziell auf diese Herausforderungen zugeschnitten sind.
Das KI-Gesetz der Europäischen Union verbietet KI für Anwendungen wie das ungezielte Auslesen von Bildern aus dem Internet oder aus Videoüberwachungsanlagen, die biometrische Fernidentifizierung in Echtzeit in der Öffentlichkeit (mit begrenzten Ausnahmen) und die Bewertung des Rückfallrisikos allein auf der Grundlage von Profilen oder Persönlichkeitsmerkmalen.
Die kanadischen Gesetze haben keinen Schritt gehalten, und die vorgeschlagenen Gesetze sind problematisch. Auf Bundesebene liegt die Gesetzesvorlage C-27 (die ein Gesetz über künstliche Intelligenz und Daten enthält) seit über einem Jahr im Ausschuss fest und es ist unwahrscheinlich, dass sie von diesem Parlament verabschiedet wird.
Ontarios Gesetzesvorschlag für künstliche Intelligenz, Bill 194, würde die Polizei von der Anwendung ausnehmen und enthält keine Bestimmungen zur Wahrung der Menschenrechte.
Kanada sollte die bestehenden Gesetze und Richtlinien, die bereits für den Einsatz von künstlicher Intelligenz durch öffentliche Behörden gelten, energisch durchsetzen. Die kanadische Charta der Rechte und Freiheiten enthält zahlreiche Grundfreiheiten, gesetzliche Rechte und Gleichheitsschutzbestimmungen, die sich direkt auf diese Fragen beziehen. Ebenso setzen Datenschutzgesetze, Menschenrechtsgesetze, Verbraucherschutzgesetze und das Deliktsrecht wichtige Standards für den Einsatz von KI.
Die potenziellen Auswirkungen der KI auf die Menschen im Strafrechtssystem sind immens. Ohne eine durchdachte und strenge Aufsicht besteht die Gefahr, dass sie das Vertrauen der Öffentlichkeit in das Justizsystem untergräbt und bestehende Probleme mit realen menschlichen Folgen fortbestehen lässt.
Glücklicherweise ist Kanada bei der Einführung von KI in der Strafjustiz noch nicht so weit wie andere Länder. Wir haben immer noch Zeit, einen Schritt voraus zu sein. Politische Entscheidungsträger, Gerichte und die Zivilgesellschaft müssen schnell handeln, um sicherzustellen, dass KI der Justiz dient und sie nicht untergräbt.