Anzeige
Skip to content

EU-Politik will drei Risiko-Kategorien für KI einführen

Image description
Unsplash

Eine Gruppe EU-Politikerinnen und -Politiker schlägt drei Risikokategorien für KI-Anwendungen vor.

KI ist längst im Alltag angekommen, meist unbemerkt von Anwender:innen, versteckt in der Software, die sie etwa auf ihrem Smartphone, in der Suchmaschine oder beim autonomen Hausstaubsauger verwenden.

Doch wie gehen wir mit KI-Entscheidungen und -Inhalten um und mit den Daten, die bei der Anwendung von KI-Software erhoben und verarbeitet werden (müssen)? Dafür gibt die Politik in den USA und Europa noch keine umfassenden und einheitlichen Regeln vor.

Selbstregulierung reicht nicht aus

Viele besonders prominente Tech-Unternehmen mit Vorzeigeanwendungen regulieren sich daher selbst. Google etwa veröffentlicht mächtige KI-Systeme wie Parti (Bildgenerierung) oder LaMDA (Dialoge) derzeit nicht, weil das Risiko besteht, dass die Systeme moralisch fragwürdige Inhalte produzieren oder gar gegen Gesetze verstoßen.

Anzeige
DEC_D_Incontent-1

Auch OpenAI etwa veröffentlichte DALL-E 2 erst, als es aus seiner Perspektive ausreichende Sicherheitsvorkehrungen gegen die Generierung kritischer Inhalte getroffen hatte. Allerdings sind diese Sicherheitsvorkehrungen teils umstritten, da sie die technischen Möglichkeiten der Systeme begrenzen und damit kreativen Freiraum einschränken. DALL-E 2 etwa darf erst seit wenigen Wochen Gesichter generieren.

Dass sich die Politik nicht auf diese Selbstregulierung verlassen darf, zeigt das Beispiel Clearview: Das KI-basierte System des Unternehmens ermöglicht theoretisch eine Massenüberwachung anhand aus dem Internet gezogener Gesichtsdaten und wird international, teils illegal, eingesetzt. Trotz reichlich Gegenwind und angedrohter Millionenstrafen von EU-Datenschützern möchte Clearview die eigenen wirtschaftlichen Interessen weiter durchsetzen. Risikobewusstsein wird bestenfalls vorgetäuscht.

Hinzu kommt, dass die Fähigkeiten von KI teils falsch eingeschätzt werden, etwa für die Emotionserkennung, oder überschätzt werden, etwa die Verlässlichkeit und Genauigkeit selbst bei relativ erprobten Systemen wie der Gesichtserkennung, wenn sie skaliert im großen Maßstab eingesetzt werden.

Drei Risikokategorien für Künstliche Intelligenz

Der "Artificial Intelligence Act" einer Gruppe EU-Politiker und -Politikerinnen will KI-Anwendungen zukünftig in drei Risikokategorien einteilen. Anhand dieser Kategorien kann eine Anwendung direkt verboten werden oder es greifen Informations- und Transparenzansprüche sowie noch zu entwickelnde Gesetze.

Anzeige
DEC_D_Incontent-2

Bild: EU

Als inakzeptables Risiko sieht die EU-Gruppe KI-Überwachung für Social-Scoring-Systeme, wie sie in China im Einsatz sind, oder Anwendungen, die generell gegen EU-Werte verstoßen. Solche Systeme werden verbannt.

Bild: EU

Anwendungen mit hohem Risiko sind etwa Computer-Vision-Werkzeuge, die erkennen sollen, ob ein Bewerber oder eine Bewerberin für einen Job geeignet ist. Für solche Systeme soll es eigene Gesetze geben. Die Liste an möglichen Hochrisiko-Anwendungen ist noch in Arbeit.

Anwendungen mit minimalem oder keinem Risiko sollen "größtenteils unreguliert" bleiben. Das sind alle Anwendungen, die nicht in die Kategorien hohes oder inakzeptables Risiko fallen. Die EU-Gruppe geht davon aus, dass "die meisten KI-Anwendungen" nicht in die Hochrisiko-Kategorie fallen werden.

In Kraft treten könnte das EU-KI-Gesetz bis Ende 2024.

KI-News ohne Hype – von Menschen kuratiert

Mit dem THE‑DECODER‑Abo liest du werbefrei und wirst Teil unserer Community: Diskutiere im Kommentarsystem, erhalte unseren wöchentlichen KI‑Newsletter, 6× im Jahr den „KI Radar"‑Frontier‑Newsletter mit den neuesten Entwicklungen aus der Spitze der KI‑Forschung, bis zu 25 % Rabatt auf KI Pro‑Events und Zugriff auf das komplette Archiv der letzten zehn Jahre.

KI-News ohne Hype
Von Menschen kuratiert.

  • Mehr als 20 Prozent Launch-Rabatt.
  • Lesen ohne Ablenkung – keine Google-Werbebanner.
  • Zugang zum Kommentarsystem und Austausch mit der Community.
  • Wöchentlicher KI-Newsletter.
  • 6× jährlich: „KI Radar“ – Deep-Dives zu den wichtigsten KI-Themen.
  • Bis zu 25 % Rabatt auf KI Pro Online-Events.
  • Zugang zum kompletten Archiv der letzten zehn Jahre.
  • Die neuesten KI‑Infos von The Decoder – klar und auf den Punkt.
The Decoder abonnieren