Der erste Entwurf des Verhaltenskodex für universelle KI-Systeme sieht strenge Regeln für Modelle mit systemischem Risiko vor. Dazu gehören externe Tests durch das EU KI-Büro und Dritte. Auch Copyright-Regeln spielen eine wichtige Rolle.
Die EU-Kommission hat den ersten Entwurf des Verhaltenskodex für Anbieter universeller KI-Systeme (General Purpose AI, GPAI) veröffentlicht. Der Kodex soll die Anwendung der Regeln des EU KI-Gesetzes für solche Modelle erleichtern. Die Kommission kann den Kodex EU-weit genehmigen und ihm allgemeine Gültigkeit verleihen (siehe Präambel 117).
Der Entwurf, der von unabhängigen Experten erstellt wurde, enthält strenge Vorgaben für GPAI-Modelle mit sogenanntem systemischem Risiko. Dazu zählen Modelle, die mit einer Rechenleistung von mehr als 10^25 FLOPs trainiert wurden - was nach Schätzungen etwa auf GPT-4 bereit zutraf. Diese müssten der EU laut aktuellem Entwurf bereits zwei Wochen vor Trainingsbeginn gemeldet werden (Sub-Measure 20.1).
Umfassende Sicherheitsrahmen für KI-Systeme
Der Kodex sieht zwei zentrale Dokumente vor: Das "Safety and Security Framework" (SSF) und den "Safety and Security Report" (SSR). Das SSF ist das übergeordnete Rahmenwerk, das die grundlegenden Risikomanagement-Richtlinien festlegt. Es umfasst vier Hauptkomponenten:
- Risikoerkennung und -analyse mit detaillierten Methoden zur Identifizierung systemischer Risiken
- Sicherheitsmaßnahmen wie Verhaltensmodifikationen der Modelle und Schutzmaßnahmen beim Einsatz
- Sicherheitsmaßnahmen zum Schutz von Modell-Gewichtungen und Assets sowie Zugriffskontrolle
- Bewertungsverfahren zur kontinuierlichen Überprüfung der Maßnahmen
Der SSR ist dagegen das konkrete Dokumentations-Instrument für jedes einzelne Modell. Er enthält:
- Detaillierte Risikoanalysen vor und nach Implementierung von Schutzmaßnahmen
- Bewertungen der Wirksamkeit aller Sicherheitsmaßnahmen
- Kosten-Nutzen-Analysen und wissenschaftliche Methodenbeschreibungen
- Interne oder externe Prüfergebnisse
Beide Dokumente stehen in enger Wechselwirkung: Das SSF liefert den Rahmen und die Richtlinien, nach denen die SSRs erstellt werden. Die SSRs wiederum dokumentieren die konkrete Umsetzung und liefern Erkenntnisse, die in Updates des SSF einfließen. Dieses Zusammenspiel soll eine kontinuierliche Verbesserung der Sicherheitsmaßnahmen gewährleisten.
EU KI-Büro soll GPAI-Modelle mit systemischem Risiko extern testen
Eine Neuerung im Kodex-Entwurf: Für GPAI-Modelle mit systemischem Risiko sollen externe Tests durch das KI-Büro und Dritte durchgeführt werden. Wörtlich heißt es:
"Die Unterzeichner stellen sicher, dass vor dem Einsatz von universellen KI-Modellen mit systemischem Risiko ausreichende unabhängige Expertentests durchgeführt werden, z. B. durch das KI-Büro und geeignete Drittanbieter-Bewerter, um Risiken und Minderungsmaßnahmen genauer zu bewerten und externen Akteuren Sicherheit zu geben. Dies kann auch eine Überprüfung geeigneter Elemente der vom Unterzeichner gesammelten Nachweise beinhalten." (Sub-Measure 17.1)
Solche externen Audits sind im KI-Gesetz bisher nicht vorgesehen. In der Präambel 114 heißt es lediglich, dass Anbieter von GPAI-Modelle mit systemischem Risiko "gegebenenfalls auch im Rahmen interner oder unabhängiger externer Tests" Risikobewertungen durchführen sollen.
Es stellt sich die Frage, wer in der Lage wäre, die komplexesten KI-Modelle zu testen und zu bewerten. Hat das KI-Büro die notwendige Expertise? Der Kodex-Entwurf lässt dies noch offen.
Brisant ist der Vorschlag auch deswegen, da das intensive Testing bzw. Freigeben von komplexen Modellen einhergeht mit weitreichenden technischen Einblicken in die zu untersuchenden Modelle. Prüfende Unternehmen müssten entsprechend gleichzeitig die Expertise für Tests an führender Frontier Technology haben, sowie die Erkenntnisse aus den Tests für sich behalten.
Externe Tests könnten durch EU-Kommission verpflichtend werden
Die Forderung nach externen Tests im Kodex könnte weitreichende Folgen haben. Laut Präambel 117 des EU AI Acts kann die EU-Kommission den Verhaltenskodex per Durchführungsrechtsakt EU-weit für verbindlich erklären. Damit würden auch die darin vorgesehenen externen Tests Gesetzeskraft erlangen (so zumindest meine Interpretation).
Alternativ könnte die Kommission eigene Vorschriften zur Umsetzung der Pflichten erlassen, falls der Kodex nicht rechtzeitig fertig wird oder vom KI-Büro als ungeeignet eingestuft wird. Die externe Prüfung könnte also entweder über den Kodex oder direkt durch Kommissionsbeschluss verpflichtend werden.
Dies wäre eine signifikante Verschärfung gegenüber dem ursprünglichen KI-Gesetz. Allerdings sieht die Präambel auch vor, dass Anbieter die Konformität mit "angemessenen alternativen Mitteln" nachweisen können, wenn sie sich nicht auf den Kodex stützen wollen. Die praktische Umsetzung dieser Option bleibt jedoch unklar.
Strenge Copyright-Regeln und Schutz vor Piraterie
Ein weiterer Schwerpunkt des Kodex sind Copyright-Regeln. Anbieter müssen eine Richtlinie aufsetzen, um das Urheberrecht einzuhalten. Dazu gehört, dass sie Vorbehalte von Rechteinhabern beachten, die ihre Inhalte nicht zum Training von KI-Modellen freigeben wollen.
Als technisches Mittel dazu sollen Anbieter den Industriestandard robots.txt unterstützen. Damit können Website-Betreiber festlegen, welche Inhalte von Crawlern indexiert werden dürfen. Suchmaschinen-Anbieter dürfen robots.txt-Ausschlüsse nicht dafür nutzen, Inhalte schlechter auffindbar zu machen.
Außerdem sollen Anbieter Maßnahmen ergreifen, um Piraterie-Websites von ihren Crawling-Aktivitäten auszuschließen, etwa anhand der "Counterfeit and Piracy Watch List" der EU-Kommission.
In den nächsten Schritten wird der Kodex-Entwurf mit rund 1000 Stakeholdern in vier thematischen Arbeitsgruppen diskutiert. Auf Basis des Feedbacks sollen die Experten den Kodex weiter ausarbeiten und konkretisieren.