Künstliche Intelligenz nimmt viele Formen an. Manchmal trifft sie Entscheidungen oder liefert Vorlagen. Drei Beispiele aus Deutschland.
So wie Unternehmen setzen auch Regierungen automatisierte Entscheidungssysteme ein. Solche Systeme treffen entweder selbständig datengestützte Entscheidungen oder nutzen Datenanalyse, um Empfehlungen für Menschen auszusprechen. Wer bekommt soziale Unterstützung? Wird ein Straftäter wieder rückfällig? Wem steht welche Behandlung im Gesundheitswesen zu?
Während in den Medien häufig Fälle aus China und den USA diskutiert werden, sind die Systeme längst in der EU angekommen. Ein Bericht der Organisation Algorithmwatch bietet einen Überblick über den aktuellen Stand.
KI in der Energieversorgung
Angetrieben durch Energiewende, Privathaushalte, die ihren eigenen Strom produzieren und den flexiblen Stromhandel innerhalb der EU haben automatisierte Entscheidungssysteme Einzug in die Energieinfrastruktur gehalten.
Dort verteilen, überwachen und kontrollieren sie den Stromfluss. Sie nutzen Maschinenlernen, um in Echtzeit Fluktuationen auszugleichen oder gar den kompletten Zusammenbruch der Energieversorgung zu verhindern.
Während diese Arbeit aufgrund der hohen Komplexität ohnehin nur mit Computern bewältigt werden kann, birgt der Einsatz der KI-Systeme eine neue Gefahr: Die Energieversorgung ist als kritische Infrastruktur potentielles Ziel von Cyber-Attacken.
Computer sagt nein zum Kredit
Die Wirtschaftsauskunftei Schufa setzt ebenfalls auf Algorithmen. Diese ermitteln automatisiert die Kreditwürdigkeit von Personen. Fällt sie niedrig aus, verneinen Banken Kredite und Telekommunikationsunternehmen neue Verträge.
Wie genau die Schufa zu ihrer Wertung kommt, ist Teil ihres Geschäftsgeheimnisses. Das Projekt OpenSCHUFA, an dem auch Algorithmwatch beteiligt ist, sollte das System der Schufa reproduzieren und so herausfinden, ob die Algorithmen systematische Fehler beinhalten. Es zeigte sich, dass es zum Beispiel Unterschiede zwischen verschiedenen Versionen des Wertungssystems gibt.
Die Schufa verurteilt diese Kampagne: Sie sei „irreführend und gegen Sicherheit und Datenschutz in Deutschland“, heißt es in einer Mitteilung des Unternehmens.
Mannheim: Umfangreiche KI-gestützte Videoüberwachung bis 2020
In Mannheim sollen bis 2020 fast 80 KI-gestützte Überwachungskameras den öffentlichen Raum beobachten.
Die Kameraaufnahmen werden von Algorithmen analysiert. Sie prüfen das Verhalten der beobachteten Personen auf bestimmte Bewegungsmuster, „die auf die Begehung einer Straftat hindeuten“, so heißt es auf Hinweisschildern der Mannheimer Polizei. „Diese Bewegungsmuster können zu Beginn vor allem mit Verhaltensweisen wie Schlagen oder Treten umschrieben werden.“
Diese dezente Voraussicht soll schnellere Reaktionszeiten der Polizei ermöglichen. Kritiker, wie der Journalist Markus Reuter, sehen den Einsatz dieser Verhaltensscanner als grundrechtlich bedenklich, „weil er einen starken Konformitätsdruck ausübt und gleichzeitig viele Fehlalarme zu erwarten sind.“ Es sei außerdem unklar, auf welche „unnatürlichen“ Bewegungen der Algorithmus trainiert sei.
KI-Regulierung ist mehr als Datenschutz
Die Autoren des Berichts schlagen eine stärkere Beteiligung der Zivilgesellschaft in der KI-Debatte vor. Die Diskussion über automatisierte Entscheidungssysteme dürfe sich nicht nur um technologische Fragen drehen.
Thema müsse auch sein, wer diese Systeme einsetzt und aus welchen Gründen. Außerdem müsse Ursprung und Art der verarbeiteten Daten kontrolliert werden.
Nur so könnten durch unausgeglichene Datensätze oder schlechte Algorithmen produzierte Vorurteile und Diskriminierung verhindert werden. Es brauche weiter spezialisierte Aufsichtsbehörden, um Missbrauch von KI und somit negative Auswirkungen auf die Zivilgesellschaft zu verhindern.
Ähnliche Forderungen stellte in den USA kürzlich das AI Now Institut in einem Rückblick auf das Jahr 2018.