Inhalt
summary Zusammenfassung

Der erste Entwurf des Verhaltenskodex für universelle KI-Systeme sieht strenge Regeln für Modelle mit systemischem Risiko vor. Dazu gehören externe Tests durch das EU KI-Büro und Dritte. Auch Copyright-Regeln spielen eine wichtige Rolle.

Anzeige

Die EU-Kommission hat den ersten Entwurf des Verhaltenskodex für Anbieter universeller KI-Systeme (General Purpose AI, GPAI) veröffentlicht. Der Kodex soll die Anwendung der Regeln des EU KI-Gesetzes für solche Modelle erleichtern. Die Kommission kann den Kodex EU-weit genehmigen und ihm allgemeine Gültigkeit verleihen (siehe Präambel 117).

Der Entwurf, der von unabhängigen Experten erstellt wurde, enthält strenge Vorgaben für GPAI-Modelle mit sogenanntem systemischem Risiko. Dazu zählen Modelle, die mit einer Rechenleistung von mehr als 10^25 FLOPs trainiert wurden - was nach Schätzungen etwa auf GPT-4 bereit zutraf. Diese müssten der EU laut aktuellem Entwurf bereits zwei Wochen vor Trainingsbeginn gemeldet werden (Sub-Measure 20.1).

Umfassende Sicherheitsrahmen für KI-Systeme

Der Kodex sieht zwei zentrale Dokumente vor: Das "Safety and Security Framework" (SSF) und den "Safety and Security Report" (SSR). Das SSF ist das übergeordnete Rahmenwerk, das die grundlegenden Risikomanagement-Richtlinien festlegt. Es umfasst vier Hauptkomponenten:

Anzeige
Anzeige
  1. Risikoerkennung und -analyse mit detaillierten Methoden zur Identifizierung systemischer Risiken
  2. Sicherheitsmaßnahmen wie Verhaltensmodifikationen der Modelle und Schutzmaßnahmen beim Einsatz
  3. Sicherheitsmaßnahmen zum Schutz von Modell-Gewichtungen und Assets sowie Zugriffskontrolle
  4. Bewertungsverfahren zur kontinuierlichen Überprüfung der Maßnahmen

Der SSR ist dagegen das konkrete Dokumentations-Instrument für jedes einzelne Modell. Er enthält:

  • Detaillierte Risikoanalysen vor und nach Implementierung von Schutzmaßnahmen
  • Bewertungen der Wirksamkeit aller Sicherheitsmaßnahmen
  • Kosten-Nutzen-Analysen und wissenschaftliche Methodenbeschreibungen
  • Interne oder externe Prüfergebnisse

Beide Dokumente stehen in enger Wechselwirkung: Das SSF liefert den Rahmen und die Richtlinien, nach denen die SSRs erstellt werden. Die SSRs wiederum dokumentieren die konkrete Umsetzung und liefern Erkenntnisse, die in Updates des SSF einfließen. Dieses Zusammenspiel soll eine kontinuierliche Verbesserung der Sicherheitsmaßnahmen gewährleisten.

EU KI-Büro soll GPAI-Modelle mit systemischem Risiko extern testen

Eine Neuerung im Kodex-Entwurf: Für GPAI-Modelle mit systemischem Risiko sollen externe Tests durch das KI-Büro und Dritte durchgeführt werden. Wörtlich heißt es:

"Die Unterzeichner stellen sicher, dass vor dem Einsatz von universellen KI-Modellen mit systemischem Risiko ausreichende unabhängige Expertentests durchgeführt werden, z. B. durch das KI-Büro und geeignete Drittanbieter-Bewerter, um Risiken und Minderungsmaßnahmen genauer zu bewerten und externen Akteuren Sicherheit zu geben. Dies kann auch eine Überprüfung geeigneter Elemente der vom Unterzeichner gesammelten Nachweise beinhalten." (Sub-Measure 17.1)

Solche externen Audits sind im KI-Gesetz bisher nicht vorgesehen. In der Präambel 114 heißt es lediglich, dass Anbieter von GPAI-Modelle mit systemischem Risiko "gegebenenfalls auch im Rahmen interner oder unabhängiger externer Tests" Risikobewertungen durchführen sollen.

Empfehlung

Es stellt sich die Frage, wer in der Lage wäre, die komplexesten KI-Modelle zu testen und zu bewerten. Hat das KI-Büro die notwendige Expertise? Der Kodex-Entwurf lässt dies noch offen.

Brisant ist der Vorschlag auch deswegen, da das intensive Testing bzw. Freigeben von komplexen Modellen einhergeht mit weitreichenden technischen Einblicken in die zu untersuchenden Modelle. Prüfende Unternehmen müssten entsprechend gleichzeitig die Expertise für Tests an führender Frontier Technology haben, sowie die Erkenntnisse aus den Tests für sich behalten.

Externe Tests könnten durch EU-Kommission verpflichtend werden

Die Forderung nach externen Tests im Kodex könnte weitreichende Folgen haben. Laut Präambel 117 des EU AI Acts kann die EU-Kommission den Verhaltenskodex per Durchführungsrechtsakt EU-weit für verbindlich erklären. Damit würden auch die darin vorgesehenen externen Tests Gesetzeskraft erlangen (so zumindest meine Interpretation).

Alternativ könnte die Kommission eigene Vorschriften zur Umsetzung der Pflichten erlassen, falls der Kodex nicht rechtzeitig fertig wird oder vom KI-Büro als ungeeignet eingestuft wird. Die externe Prüfung könnte also entweder über den Kodex oder direkt durch Kommissionsbeschluss verpflichtend werden.

Anzeige
Anzeige
Community beitreten
Kommt in die DECODER-Community bei Discord,Reddit, Twitter und Co. - wir freuen uns auf euch!

Dies wäre eine signifikante Verschärfung gegenüber dem ursprünglichen KI-Gesetz. Allerdings sieht die Präambel auch vor, dass Anbieter die Konformität mit "angemessenen alternativen Mitteln" nachweisen können, wenn sie sich nicht auf den Kodex stützen wollen. Die praktische Umsetzung dieser Option bleibt jedoch unklar.

Strenge Copyright-Regeln und Schutz vor Piraterie

Ein weiterer Schwerpunkt des Kodex sind Copyright-Regeln. Anbieter müssen eine Richtlinie aufsetzen, um das Urheberrecht einzuhalten. Dazu gehört, dass sie Vorbehalte von Rechteinhabern beachten, die ihre Inhalte nicht zum Training von KI-Modellen freigeben wollen.

Als technisches Mittel dazu sollen Anbieter den Industriestandard robots.txt unterstützen. Damit können Website-Betreiber festlegen, welche Inhalte von Crawlern indexiert werden dürfen. Suchmaschinen-Anbieter dürfen robots.txt-Ausschlüsse nicht dafür nutzen, Inhalte schlechter auffindbar zu machen.

Außerdem sollen Anbieter Maßnahmen ergreifen, um Piraterie-Websites von ihren Crawling-Aktivitäten auszuschließen, etwa anhand der "Counterfeit and Piracy Watch List" der EU-Kommission.

In den nächsten Schritten wird der Kodex-Entwurf mit rund 1000 Stakeholdern in vier thematischen Arbeitsgruppen diskutiert. Auf Basis des Feedbacks sollen die Experten den Kodex weiter ausarbeiten und konkretisieren.

Unterstütze unsere unabhängige, frei zugängliche Berichterstattung. Jeder Betrag hilft und sichert unsere Zukunft. Jetzt unterstützen:
Banküberweisung
Zusammenfassung
  • Der erste Entwurf des EU-Verhaltenskodex für universelle KI-Systeme sieht vor, dass Anbieter von GPAI-Modellen mit systemischem Risiko diese zwei Wochen vor Trainingsbeginn der EU melden und externe Tests durch das EU KI-Büro und Dritte zulassen müssen.
  • Der Kodex schreibt ein umfassendes Sicherheitsrahmenwerk (SSF) mit Risikoanalyse, Schutzmaßnahmen und Bewertungsverfahren vor. Für jedes Modell muss ein detaillierter Sicherheitsbericht (SSR) erstellt werden, der Risikoanalysen, Wirksamkeitsbewertungen und Prüfergebnisse dokumentiert.
  • Anbieter müssen strenge Copyright-Regeln einhalten, Vorbehalte von Rechteinhabern beachten und den Standard robots.txt unterstützen. Zudem sollen sie Maßnahmen ergreifen, um Piraterie-Websites von ihren Crawling-Aktivitäten auszuschließen. Der Entwurf wird nun mit Stakeholdern diskutiert und weiterentwickelt.
Quellen
Kim setzt sich mit den ethischen, wirtschaftlichen und politischen Auswirkungen von KI auseinander. Und natürlich mit der Frage: Wovon träumen Roboter?
Community beitreten
Kommt in die DECODER-Community bei Discord,Reddit, Twitter und Co. - wir freuen uns auf euch!