Inhalt
newsletter Newsletter
DEEP MINDS Podcast
Podcast über Künstliche Intelligenz und Wissenschaft
KI bei der Bundeswehr und der BWI | DEEP MINDS #16
Update: 21.04.2021

Wie angekündigt, hat die EU-Kommission heute ihren "Vorschlag zur Regulierung eines europäischen Ansatzes für Künstliche Intelligenz" veröffentlicht. "Die Kommission schlägt den allerersten Rechtsrahmen für KI vor, der sich mit den Risiken der KI befasst und Europa in die Lage versetzt, weltweit eine führende Rolle zu spielen", heißt es zur Veröffentlichung der Kommission. Dort kann das knapp 100 Seiten starke Papier heruntergeladen werden.

Bevor die Vorschläge europäisches Gesetz werden, müssen sie durch den Rat der Europäischen Union und das Europäische Parlament. Änderungen sind daher zu erwarten.

Ursprünglicher Artikel vom 17. April 2021

Die EU versucht sich am Spagat zwischen wirtschaftlichen Interessen und KI-Regulierung. Das sagen Experten zu den geleakten Regulierungsplänen der EU.

Anzeige
Anzeige

Die Europäische Kommission plant die weltweit stärkste Regulierung Künstlicher Intelligenz. Einen ersten Blick auf die EU-Pläne gab es bereits im Februar 2020, als die Kommission ein Weißbuch mit ihren Regulierungsplänen veröffentlichte.

Dieses machte deutlich: Die EU sucht einen Mittelweg zwischen potenziellem Missbrauch und möglichen Vorteilen der Technologie. Europa soll sich als KI-Macht neben den USA und China etablieren und gleichzeitig das Vertrauen der Bürgerinnen und Bürger in die Technologie stärken.

Nun ist ein Entwurf der kommenden KI-Verordnung geleakt. Die Kommission will die endgültige Verordnung am 21. April vorstellen.

Kein KI-basiertes Social Scoring in der EU

Demnach plant die EU-Kommission, bestimmte Anwendungen als risikoreiche KI-Systeme einzustufen und teilweise komplett zu verbieten. Alle anderen müssen die neuen EU-Regeln einhalten. Andernfalls können verantwortliche Unternehmen mit Strafzahlungen von bis zu 20 Millionen Euro oder vier Prozent ihres Umsatzes belegt werden.

So soll etwa der Einsatz von KI-Systemen, die Social Scoring ermöglichen und zu einer systematischen Benachteiligung einzelner Personen oder von Personengruppen führen, für Unternehmen und staatliche Stellen verboten werden.

Empfehlung

Ebenso soll KI-Überwachung oder Manipulation verboten werden. Hier sind jedoch Ausnahmen für staatliche Stellen geplant, sofern sie der öffentlichen Sicherheit dienen und gesetzlich legitimiert sind.

Datenschutzrechtlerin Prof. Dr. Anne Riechert der Frankfurt University of Applied Science merkt an, dass der Einsatz von KI gerade durch staatliche Stellen besonders sensibel sei und sorgfältiger Abwägung bedürfe. Zudem sei der Begriff der systematischen Benachteiligung nicht näher definiert und eine Überschneidung zu den Möglichkeiten umfassender Überwachung sei nicht auszuschließen.

Risikoreiche KI-Anwendungen: Anbieter sollen Monitoring betreiben

Ob ein KI-System als hohes Risiko eingeordnet wird, richtet sich nach Schwere und Eintrittswahrscheinlichkeit eines Schadens. Zugelassene Systeme mit hohem Risiko sollen von einer natürlichen Person überwacht werden und Anbieter müssen ein dauerhaftes Monitoringsystem unterhalten.

Es sollen außerdem registrierte Stellen geschaffen werden, die die KI-Systeme auf Konformität mit den Anforderungen der Verordnung prüfen. Alle KI-Systeme mit hohem Risiko sollen in einer Datenbank auf EU-Ebene eingetragen und es soll ein CE-Kennzeichen eingeführt werden. Bei Verstößen sind Sanktionen vorgesehen.

Anzeige
Community beitreten
Kommt in die DECODER-Community bei Discord,Reddit, Twitter und Co. - wir freuen uns auf euch!
Anzeige
Community beitreten
Kommt in die DECODER-Community bei Discord,Reddit, Twitter und Co. - wir freuen uns auf euch!

KI-Systeme mit hohem Risiko sollen allerdings auch der Eigenkontrolle und Selbsteinschätzung durch den Anbieter unterliegen können, etwa Systeme zur Einschätzung der Kreditwürdigkeit einer Person. Gerade mit solchen Systemen könne jedoch ein erhebliches Schadenspotenzial für Verbraucherinnen und Verbraucher einhergehen, so Riechert.

Hier könnten eine Aufteilung in mehrere Risikostufen und besondere Kontroll- und Transparenzpflichten empfehlenswert sein, so die Datenschutzrechtlerin.

"Die Datenethikkommission hat in ihrem Abschlussgutachten in Fällen mit erheblichem Schädigungspotenzial die kontinuierliche Kontrolle durch Aufsichtsinstitutionen etwa mittels einer Live-Schnittstelle vorgeschlagen (mit Blick auf Betreiber von algorithmischen Systemen). Kontrollmöglichkeiten könnten darüber hinaus Klagebefugnisse von Verbänden ohne Gewinnerzielungsabsicht bieten", sagt Riechert.

Kennzeichnungspflicht für Deepfakes

KI-Systeme, die mit Menschen interagieren oder die Bild-, Audio- oder Videoinhalte generieren oder manipulieren, müssen Transparenzregeln folgen: Nutzer müssen über die Interaktion informiert werden. Manipulierte oder KI-generierte Inhalte wie Deepfakes müssen ebenfalls gekennzeichnet werden.

Auch hier gibt es Ausnahmen für die öffentliche Sicherheit oder wenn ein berechtigtes Interesse vorliegt. Riechert fordert weitreichende gesetzliche Grundlagen, da Hoheitsträger eine Vorbildfunktion einnähmen und der Einsatz von KI immer sorgfältiger Abwägung bedürfe. Berechtigtes Interesse müsse außerdem mindestens durch entsprechende Verhaltensregeln konkretisiert werden.

EU-Regulierungen: begrüßenswert, nebulös, gefährlich?

"Die Verordnung ist eine hochspannende Entwicklung in einem Regulierungsfeld, das weltweit erst zaghaft in den Blick genommen wird", sagt Dr. Stephan Dreyer vom Leibniz-Institut für Medienforschung. "Die EU-Kommission zeigt hier, dass sie die gesellschaftliche Relevanz der Struktur-verändernden Potenziale des Einsatzes von KI-Systemen erkannt hat und in möglichst grundrechtswahrende Bahnen lenken will."

Es sei positiv zu bewerten, dass nicht KI-Technologie als solche reguliert werde, sondern ihr Einsatz in Softwaresystemen in bestimmten Einsatzbereichen mit besonderem Risikopotenzial für Grund- und Menschenrechte. Die Abstufung nach Risiken mit jeweils eigenen rechtlichen Anforderungen sei ein bewährter Regulierungsansatz im europäischen Recht.

KI-Forscher Prof. Dr. Kristian Kersting der TU Darmstadt bezeichnet hingegen die binäre Definition von hohem und niedrigem Risiko als "bestenfalls nebulös und schlimmstenfalls gefährlich", da es an Kontext und Feinheiten fehle. So müsse man auf Grundlage des Entwurfs etwa die Frage stellen, ob soziale Medien verboten werden müssen.

"Das klingt zwar zynisch, aber viele Leute sind der Meinung, dass soziale Netzwerke die Meinung von Menschen negativ beeinflussen können", sagt Kersting. Eine explizit adaptive Regulierung wäre für die Regulierung von intelligentem Verhalten sinnvoller. "Der Innovationszyklus ist in der KI extrem kurzlebig", so Kersting. Regulierung und Innovation müssten in den Dialog treten.

Dreyer kritisiert dagegen die "unbestimmten Rechtsbegriffe, unklaren Kriterien, die Delegation der konkreten Risikoabschätzung an den Anbieter und die teils starken Sanktionen". Das könne dazu führen, dass die Regulierungen auch Auswirkungen auf Bereiche und Software habe, die eigentlich nicht Ziel der Anforderungen seien.

Außerdem gebe es eine hohe Rechtsunsicherheit für Unternehmen und damit potenziell auch Marktzutritts- und Innovationshemmnisse. "Letzteres ist aus EU-Sicht ambivalent, weil man hier wirtschaftsstrategisch eigentlich die USA und China einholen will."

Prof. Dr. Antonio Krüger vom Deutschen Forschungszentrum für Künstliche Intelligenz (DFKI) begrüßt die Initiative der EU. "Neue Technologien, Lösungen und Märkte brauchen einen verlässlichen ordnungspolitischen Rahmen, aber ohne Überregulierung. KI ist keine neue Wissenschaft, aber die Anwendungen und die Marktdurchdringung sind noch in der Pubertät. Natürlich darf KI in Europa nicht für die willkürliche und wahllose Überwachung von Menschen eingesetzt werden."

Es sei immer wieder erstaunlich, dass inoffizielle Dokumente im Entwurfszustand ihren Weg in die Öffentlichkeit fänden. Doch gesetzgebende Gremien und die einzelnen Entscheidenden erhielten so informell öffentliche und fachliche Reaktionen.

"Das kann im Ergebnis dazu beitragen, dass Formulierungen fundierter und Gesetze praxistauglicher sind – und das ganz ohne einen formalen und mehrstufigen Anhörungsprozesses. Manche Leaks sind durchaus produktiv und verbessern möglicherweise das Resultat einer differenzierten Regulierungsverordnung", sagt Krüger.

Endlich rote Linien

Die Zivilrechtlerin Prof. Dr. Christiane Wendehorst der Universität Wien begrüßt die Formulierung von "roten Linien", die von KI-Anwendungen nicht überschritten werden dürfen, wie etwa Formen der gezielten Manipulation. Doch die konkrete Ausarbeitung dieser roten Linien müsse verbessert werden.

So gebe es eine "befremdliche Diskrepanz zwischen der Aussage in Artikel 4 Absatz 1, wonach die genannten Praktiken den europäischen Werten und Grundrechten widersprechen, und der Einschränkung in Absatz 2, wonach genau solche Praktiken (‚such practices‘) plötzlich dann erlaubt sein sollen, wenn sie auf gesetzlicher Grundlage aus Gründen der öffentlichen Sicherheit erfolgen und angemessene Schutzvorkehrungen treffen." Es könne sich hier nur um einen Redaktionsfehler handeln, denn "auch und gerade der Staat darf nicht gegen europäische Werte verstoßen und Grundrechte verletzen."

Laut Dr. Jessica Heesen, Medienethikern der Eberhard Karls Universität Tübingen, werde am EU-Entwurf deutlich, dass sich an KI typische Probleme der Digitalisierung zeigen, etwa Überwachung, Manipulation und Sicherheitsfragen. Diese Probleme könnten jedoch nicht allein durch eine Regulierung von KI überwunden werden.

So umfasse der zu Recht weit gefasst Begriff der Manipulation letztlich auch den gesamten Bereich der personalisierten Werbung und des adaptiven Designs der sozialen Medien. "Diese Arten der Verhaltensbeeinflussung (Schlagworte: Habit-Forming Products, Persuasive Technologies, Incentive Design) sind aber ein zentrales Merkmal des Geschäftsmodells der Plattformbetreiber. Wie die KI-Verordnung hier umgesetzt werden kann, ist fraglich", merkt Heesen an.

Die Kennzeichnungspflicht für synthetische Medien wie Deepfakes begrüßt Heesen. Interessant sei, dass der künstlerische Bereich wie zum Beispiel Parodien davon ausgenommen seien, um die Meinungsfreiheit zu schützen. Dieser Punkt sei umstritten, denn die Kennzeichnung gefährde letztlich nicht die Meinungsfreiheit, sondern schütze sie, indem sie die Rahmenbedingungen für eine vertrauenswürdige Medienkommunikation schaffe.

"Die Kennzeichnung muss ja nicht unmittelbar sichtbar auf der Parodie oder einem anderen künstlerischen Produkt erfolgen, sondern hier kann man sich dezentere Lösungen vorstellen, die aber trotzdem den Transparenzanforderungen genügen", sagt Heesen.

Via: Sciene Media Center

Weiterlesen über Künstliche Intelligenz:

Unterstütze unsere unabhängige, frei zugängliche Berichterstattung. Jeder Betrag hilft und sichert unsere Zukunft. Jetzt unterstützen:
Banküberweisung
Max ist leitender Redakteur bei THE DECODER. Als studierter Philosoph beschäftigt er sich mit dem Bewusstsein, KI und der Frage, ob Maschinen wirklich denken können oder nur so tun als ob.
Community beitreten
Kommt in die DECODER-Community bei Discord,Reddit, Twitter und Co. - wir freuen uns auf euch!