Die Europäische Kommission hat im Rahmen des Digital Services Act (DSA) Anfragen an Bing, Google Search, Facebook, Instagram, Snapchat, TikTok, YouTube und X gerichtet.
Darin werden die Unternehmen aufgefordert, Informationen über ihre Maßnahmen zur Risikominimierung im Zusammenhang mit generativer KI bereitzustellen, beispielsweise in Bezug auf "Halluzinationen", bei denen KI falsche Informationen liefert, die virale Verbreitung von Deepfakes und automatisierte Manipulationen, die Wähler täuschen können. Generative KI ist eine der Risiken, die in den Richtlinienentwürfen der Kommission zur Integrität von Wahlverfahren genannt werden.
Zusätzlich zu den Risikominderungsmaßnahmen bittet die Kommission um Informationen und interne Dokumente zu Risikobewertungen und Risikominderungsmaßnahmen im Zusammenhang mit generativer KI und der Verbreitung illegaler Inhalte, dem Schutz von Grundrechten, geschlechtsspezifischer Gewalt, Jugendschutz, psychologischem Wohlbefinden, Datenschutz, Verbraucherschutz und geistigem Eigentum.
Die Fragen beziehen sich sowohl auf die Verbreitung als auch auf die Erstellung von generativen KI-Inhalten. Auf der Grundlage der Auswertung der Antworten wird die Kommission die nächsten Schritte erwägen.
Sollten die betroffenen Unternehmen die Fragen nicht beantworten, kann die Kommission beschließen, die Informationen per Entscheidung anzufordern. Bei unrichtigen, unvollständigen oder irreführenden Angaben kann sie Geldbußen verhängen.
Die Unternehmen müssen die angeforderten Informationen bis zum 5. April 2024 für Fragen im Zusammenhang mit Wahlen und bis zum 26. April 2024 für alle anderen Fragen vorlegen.
Kritik am AI Act für die Zulassung von Überwachungstechnologien in bestimmten Szenarien
Das Europäische Parlament hat kürzlich den AI Act verabschiedet, der einen risikobasierten Ansatz für die Regulierung von KI vorsieht. Das Gesetz schreibt vor, dass KI-Systeme mit hohem Risiko, wie sie in Medizinprodukten oder kritischen Infrastrukturen eingesetzt werden, Sicherheitsanforderungen erfüllen müssen.
Es verbietet KI-Anwendungen, die die Rechte der Bürgerinnen und Bürger gefährden, darunter die biometrische Kategorisierung anhand sensibler Merkmale und das ungezielte Scannen von Gesichtsbildern aus dem Internet oder von Überwachungskameras. Auch Systeme zur Erkennung von Emotionen am Arbeitsplatz und in der Schule sowie Social Scoring sind verboten.
Allerdings lässt das Gesetz im Kontext der Strafverfolgung Raum für mächtige Überwachungstechnologien wie die flächendeckende Gesichtserkennung in Echtzeit oder das Verhaltenstracking im öffentlichen Raum. Algorithmwatch spricht von Überwachungsschlupflöchern, die von den Mitgliedsstaaten geschlossen werden müssten.