Italien setzt OpenAI eine Frist und nennt Bedingungen für die Wiederzulassung von ChatGPT in Italien. Einige dieser Bedingungen könnten OpenAI vor große Herausforderungen stellen.
Bis zum 30. April hat OpenAI Zeit, die von der italienischen Datenschutzbehörde "Garante" gestellten Bedingungen zu erfüllen beziehungsweise deren Erfüllung in Aussicht zu stellen.
Dazu gehören die Einführung einer Altersverifikation bei der Registrierung bis Ende Mai und eine generelle Altersverifikation bis zum 30. September, bei der Nutzer unter 13 Jahren sowie Nutzer zwischen 13 und 18 Jahren, für die keine Zustimmung der Erziehungsberechtigten vorliegt, herausgefiltert werden.
Darüber hinaus muss OpenAI in transparenter Weise darlegen, wie und zu welchem Zweck die Daten verarbeitet werden, und dafür die Einwilligung der Nutzenden einholen. Diese beiden Bedingungen sollten von OpenAI erfüllt werden können. Zwei weitere Anforderungen dürften dem Unternehmen mehr Kopfzerbrechen bereiten.
OpenAI muss Aufklärungskampagne durchführen und soll personenbezogene falsche Generierungen löschen
Die italienische Datenschutzbehörde fordert von OpenAI weiterhin eine Aufklärungskampagne im Fernsehen, in Zeitungen und im Internet darüber, wie die persönlichen Daten italienischer Bürgerinnen und Bürger für das Training von Algorithmen verwendet werden. Die Kampagne soll ab dem 15. Mai laufen und bedarf der Zustimmung der Garante.
Das größte Kopfzerbrechen dürfte OpenAI die Forderung der Garante bereiten, dass fehlerhaft generierte personenbezogene Daten auf Antrag einer Person, auch wenn diese ChatGPT nicht nutzt, entweder korrigiert oder gelöscht werden müssen, wenn eine Berichtigung "technisch nicht durchführbar" ist.
OpenAI muss leicht zugängliche Instrumente bereitstellen, die es Nichtnutzern ermöglichen, ihr Recht auf Widerspruch gegen die Verarbeitung ihrer personenbezogenen Daten, die für den Betrieb der Algorithmen erforderlich sind, auszuüben. Dasselbe Recht muss Nutzern eingeräumt werden, wenn die Verarbeitung ihrer Daten auf der Grundlage eines berechtigten Interesses erfolgt.
Garante
Wenn man ChatGPT derzeit nach dem Lebenslauf einer weniger bekannten Person fragt, z.B. wenn ich nach meinem Lebenslauf frage, ist die Ausgabe voller falscher Informationen - und außerdem jedes Mal anders, wenn sie erstellt wird. Aufgrund der Funktionsweise des Modells, es sagt Satz- und Wortbestandteile vorher, wird es für OpenAI wahrscheinlich einfacher sein, solche Anfragen herauszufiltern, als sie zu korrigieren.
Sollte die italienische Datenschutzbehörde entscheiden, dass personenbezogene Daten nicht zum Training von Algorithmen verwendet werden dürfen, stünde OpenAI vor einer Herkulesaufgabe. Personenbezogene Daten aus dem Trainingsmaterial existieren nur als abstrakte Repräsentationen im Modell; es ist unwahrscheinlich, dass OpenAI sie mit vertretbarem Aufwand einfach identifizieren und entfernen könnte.
Vermutlich müsste das Unternehmen neue Modelle mit speziellen, EU-konformen Datensätzen trainieren oder neue Methoden für den Umgang mit Daten in großen, komplexen KI-Modellen entwickeln.
Wird Italien KI-Datenschutzvorbild für Europa?
Wenn, was sich bereits abzeichnet, andere europäische Länder dem Beispiel Italiens folgen und OpenAI zu ähnlichen Maßnahmen auffordern, stehen OpenAI turbulente Wochen mit vielen Unsicherheiten bevor. Ein (vorläufiger) Rückzug aus Europa scheint möglich.
Das Schicksal von OpenAI könnte auch mit anderen KI-Entwicklungen zusammenhängen, insbesondere bei Microsoft, das OpenAI in zahlreichen Such- und Office-Produkten für den geschäftlichen und privaten Gebrauch einführt. Sollte die OpenAI-Technologie in Europa reguliert oder gar verboten werden, könnte dies auch Auswirkungen auf Microsoft-Produkte haben. Umgekehrt könnten europäische Unternehmen wie Aleph Alpha von dieser Entwicklung profitieren.