- Statements von EU-Abgeordneten ergänzt.
- Satement von Sam Altman ergänzt.
Update vom 27. Mai 2023:
Sam Altman erklärt auf Twitter, dass OpenAI "natürlich keine Pläne" habe, Europa zu verlassen. Seine Tour durch Europa sei produktiv gewesen, mit vielen guten Gesprächen über die Möglichkeiten der Regulierung von KI.
In früheren Gesprächen sagte Altman, dass OpenAI versuchen werde, sich mit EU-Regulierungen zu arrangieren. Sollte dies nicht möglich sein, müsse man sich aus Europa zurückziehen. Altman sagte damit das Offensichtliche, was als Drohgebärde interpretiert werden kann.
Update vom 26. Mai 2023:
Einige EU-Abgeordnete widersprechen Altmans Aussage, dass der EU AI Act zurückgezogen oder grundlegend geändert werden könnte. Kim van Sparrentak, die an dem Gesetz mitgearbeitet hat, sagt, man werde sich nicht von "amerikanischen Unternehmen" erpressen lassen.
"Wenn OpenAI nicht in der Lage ist, die grundlegenden Anforderungen an Datenmanagement, Transparenz, Sicherheit und Datenschutz zu erfüllen, dann sind ihre Systeme nicht für den europäischen Markt geeignet", so Sparrentak gegenüber Reuters.
Der deutsche EU-Abgeordnete Sergey Lagodinsky sagt, Altman versuche, seine Agenda in einzelnen Ländern durchzusetzen, werde aber die Brüsseler Regulierungspläne nicht beeinflussen. Diese seien "in vollem Gange". Einzelne Änderungen seien möglich, aber die allgemeine Richtung werde sich nicht mehr ändern.
Altman soll seinen geplanten Besuch in Brüssel abgesagt haben. OpenAI kommentiert den Reuters-Bericht nicht.
Ursprünglicher Artikel vom 25. Mai 2023:
OpenAI-Chef Sam Altman hält Europas mögliche KI-Politik für zu restriktiv. Einen Rückzug aus Europa sieht er als Option.
OpenAI-Chef Sam Altman tourt derzeit durch Europa - und macht dabei auch Politik. Bei einer Veranstaltung in London bezeichnete er den aktuellen Entwurf des EU AI Act gegenüber Reuters als "Überregulierung". Ein Rückzug aus Europa sei eine Option.
Allerdings schränkt Altman ein, dass OpenAI zunächst versuchen werde, die Anforderungen Europas zu erfüllen. OpenAI habe zudem gehört, dass der aktuelle Entwurf des EU AI Act zurückgezogen werden soll. Der EU AI Act befindet sich derzeit in der Abstimmung zwischen Parlament, EU-Rat und der federführenden Kommission.
Altman deutet an, dass er eine andere Definition für "General Purpose AI System" bevorzugen würde. Das Europäische Parlament verwendet den Begriff als Synonym für "Foundational Model", d.h. ein großes, grundlegendes KI-Modell, das mit vielen Daten vortrainiert wird und mit wenigen weiteren Daten für spezifische Aufgaben optimiert werden kann.
Auch in den USA diskutiert der Gesetzgeber über KI-Regulierungen, die Sam Altman persönlich vor dem US-Senat einforderte, allerdings mit der Aussicht, diese mitgestalten zu können. Altman schlug unter anderem die Einrichtung einer zuständigen Behörde vor, die bis zu einer bestimmten Kapazitätsgrenze Lizenzen für KI-Systeme vergibt und diese auch wieder entziehen kann, wenn etwa Sicherheitsstandards nicht eingehalten werden.
Achillesferse Urheberrecht und viele andere offene Fragen
Ein Aspekt des EU AI Act ist die Offenlegung des verwendeten Trainingsmaterials, auch im Hinblick auf mögliche Urheberrechtsverletzungen. OpenAI hat das für GPT-4 verwendete Datenmaterial bisher nicht offengelegt, nach eigenen Angaben aus Wettbewerbsgründen.
Geht man von den Trainingsdatensätzen früherer Modelle aus, so ist davon auszugehen, dass auch für GPT-4 Trainingsmaterial verwendet wurde, bei dem die Urheber zumindest keine explizite Zustimmung zur Verwendung ihres Materials für das KI-Training gegeben haben.
Ob die Verwendung für das Training kommerzieller KI-Systeme dennoch rechtmäßig ist, werden letztlich die Gerichte klären müssen. Ähnliche Diskussionen und erste Rechtsstreitigkeiten gibt es auch bei Bild-KI-Systemen. Die Verhandlungen könnten sich jedoch über Jahre hinziehen.
Weitere Fragen der KI-Regulierung betreffen neben der Sicherheit auch den Datenschutz. OpenAI ist bereits in Konflikt mit europäischen Datenschutzbehörden geraten, insbesondere in Italien, weil ChatGPT zum einen keine Altersbeschränkung vorsieht und zum anderen im Chat eingegebene personenbezogene Daten für das KI-Training verwendet werden können und personenbezogene Daten im Datenmaterial für das Vortraining der KI-Modelle enthalten sind.
ChatGPT war in Italien kurzzeitig gesperrt, wurde aber nach Zugeständnissen von OpenAI wieder freigegeben. Die Prüfung durch die Datenschutzbehörden dauert jedoch noch an.
Wer mehr darüber erfahren möchte, warum und wie man Künstliche Intelligenz regulieren sollte, kann sich unseren DEEP MINDS Podcast #12 anhören, in dem wir mit Expertin Charlotte Siegmann über KI-Regulierung und den EU AI Act sprechen.