Inhalt
newsletter Newsletter
DEEP MINDS Podcast
Podcast über Künstliche Intelligenz und Wissenschaft
KI bei der Bundeswehr und der BWI | DEEP MINDS #16

Künstliche Intelligenz nimmt viele Formen an. Manchmal trifft sie Entscheidungen oder liefert Vorlagen. Drei Beispiele aus Deutschland.

So wie Unternehmen setzen auch Regierungen automatisierte Entscheidungssysteme ein. Solche Systeme treffen entweder selbständig datengestützte Entscheidungen oder nutzen Datenanalyse, um Empfehlungen für Menschen auszusprechen. Wer bekommt soziale Unterstützung? Wird ein Straftäter wieder rückfällig? Wem steht welche Behandlung im Gesundheitswesen zu?

Während in den Medien häufig Fälle aus China und den USA diskutiert werden, sind die Systeme längst in der EU angekommen. Ein Bericht der Organisation Algorithmwatch bietet einen Überblick über den aktuellen Stand.

KI in der Energieversorgung

Angetrieben durch Energiewende, Privathaushalte, die ihren eigenen Strom produzieren und den flexiblen Stromhandel innerhalb der EU haben automatisierte Entscheidungssysteme Einzug in die Energieinfrastruktur gehalten.

Anzeige
Anzeige

Dort verteilen, überwachen und kontrollieren sie den Stromfluss. Sie nutzen Maschinenlernen, um in Echtzeit Fluktuationen auszugleichen oder gar den kompletten Zusammenbruch der Energieversorgung zu verhindern.

Während diese Arbeit aufgrund der hohen Komplexität ohnehin nur mit Computern bewältigt werden kann, birgt der Einsatz der KI-Systeme eine neue Gefahr: Die Energieversorgung ist als kritische Infrastruktur potentielles Ziel von Cyber-Attacken.

Computer sagt nein zum Kredit

Die Wirtschaftsauskunftei Schufa setzt ebenfalls auf Algorithmen. Diese ermitteln automatisiert die Kreditwürdigkeit von Personen. Fällt sie niedrig aus, verneinen Banken Kredite und Telekommunikationsunternehmen neue Verträge.

Wie genau die Schufa zu ihrer Wertung kommt, ist Teil ihres Geschäftsgeheimnisses. Das Projekt OpenSCHUFA, an dem auch Algorithmwatch beteiligt ist, sollte das System der Schufa reproduzieren und so herausfinden, ob die Algorithmen systematische Fehler beinhalten. Es zeigte sich, dass es zum Beispiel Unterschiede zwischen verschiedenen Versionen des Wertungssystems gibt.

Die Schufa verurteilt diese Kampagne: Sie sei „irreführend und gegen Sicherheit und Datenschutz in Deutschland“, heißt es in einer Mitteilung des Unternehmens.

Empfehlung

Mannheim: Umfangreiche KI-gestützte Videoüberwachung bis 2020

In Mannheim sollen bis 2020 fast 80 KI-gestützte Überwachungskameras den öffentlichen Raum beobachten.

Die Kameraaufnahmen werden von Algorithmen analysiert. Sie prüfen das Verhalten der beobachteten Personen auf bestimmte Bewegungsmuster, „die auf die Begehung einer Straftat hindeuten“, so heißt es auf Hinweisschildern der Mannheimer Polizei. „Diese Bewegungsmuster können zu Beginn vor allem mit Verhaltensweisen wie Schlagen oder Treten umschrieben werden.“

Diese dezente Voraussicht soll schnellere Reaktionszeiten der Polizei ermöglichen. Kritiker, wie der Journalist Markus Reuter, sehen den Einsatz dieser Verhaltensscanner als grundrechtlich bedenklich, „weil er einen starken Konformitätsdruck ausübt und gleichzeitig viele Fehlalarme zu erwarten sind.“ Es sei außerdem unklar, auf welche „unnatürlichen“ Bewegungen der Algorithmus trainiert sei.

KI-Regulierung ist mehr als Datenschutz

Die Autoren des Berichts schlagen eine stärkere Beteiligung der Zivilgesellschaft in der KI-Debatte vor. Die Diskussion über automatisierte Entscheidungssysteme dürfe sich nicht nur um technologische Fragen drehen.

Anzeige
Community beitreten
Kommt in die DECODER-Community bei Discord,Reddit, Twitter und Co. - wir freuen uns auf euch!
Anzeige
Community beitreten
Kommt in die DECODER-Community bei Discord,Reddit, Twitter und Co. - wir freuen uns auf euch!

Thema müsse auch sein, wer diese Systeme einsetzt und aus welchen Gründen. Außerdem müsse Ursprung und Art der verarbeiteten Daten kontrolliert werden.

Nur so könnten durch unausgeglichene Datensätze oder schlechte Algorithmen produzierte Vorurteile und Diskriminierung verhindert werden. Es brauche weiter spezialisierte Aufsichtsbehörden, um Missbrauch von KI und somit negative Auswirkungen auf die Zivilgesellschaft zu verhindern.

Ähnliche Forderungen stellte in den USA kürzlich das AI Now Institut in einem Rückblick auf das Jahr 2018.

Weiterlesen über Künstliche Intelligenz:

Unterstütze unsere unabhängige, frei zugängliche Berichterstattung. Jeder Betrag hilft und sichert unsere Zukunft. Jetzt unterstützen:
Banküberweisung
Max ist leitender Redakteur bei THE DECODER. Als studierter Philosoph beschäftigt er sich mit dem Bewusstsein, KI und der Frage, ob Maschinen wirklich denken können oder nur so tun als ob.
Community beitreten
Kommt in die DECODER-Community bei Discord,Reddit, Twitter und Co. - wir freuen uns auf euch!