Europa entdeckt die Datenschutzrisiken von ChatGPT, die zum Teil funktionsbedingt sind. Können sie beseitigt werden? OpenAI macht erste Zugeständnisse.
OpenAI hat zeitgleich mit Italiens DSGVO-Vorstoß eine Stellungnahme zum Thema Sicherheit auf seiner Website veröffentlicht. Ein Punkt betrifft die Privatsphäre, die von europäischen Datenschutzbehörden kritisch hinterfragt wird. Einerseits können Trainingsdaten persönliche Informationen enthalten, andererseits geben Personen persönliche Informationen in die ChatGPT-Oberfläche ein, wenn sie etwa persönliche Dokumente wie E-Mails generieren.
OpenAI will Privatsphäre respektieren
OpenAI räumt nun ein, dass die Trainingsdaten persönliche Informationen aus dem öffentlichen Internet enthalten. Die Modelle sollten aber über die Welt lernen, nicht über einzelne Personen. OpenAI verkaufe auf Basis der Daten keine Dienstleistungen, Werbung und erstelle keine Persönlichkeitsprofile, heißt es in dem Statement.
Zumindest der erste Punkt ist diskutabel, da ChatGPT indirekt auf Basis persönlicher Informationen funktioniert und von OpenAI als Service mit monatlicher Nutzungsgebühr verkauft wird. OpenAI weist in den eigenen Datenschutzbestimmungen darauf hin, dass eingegebene personenbezogene Daten auch zur Weiterentwicklung der eigenen Dienste verwendet werden können.
"Wir nutzen Daten, um unsere Modelle für die Menschen nützlicher zu machen. Zum Beispiel verbessert sich ChatGPT durch weiteres Training anhand der Gespräche, die Menschen mit ihm führen", schreibt OpenAI.
OpenAI beabsichtigt, in Zukunft personenbezogene Daten "soweit möglich" aus dem Trainingsdatensatz zu entfernen. Zudem will es die Modelle so ausrichten, dass sie Anfragen zu Einzelpersonen ablehnen und Nutzer:innen ihre personenbezogenen Daten auf Anfrage des Modells aus den "Systemen" von OpenAI löschen lassen können. Diese Schritte minimierten die Möglichkeit, dass Modelle Antworten erzeugen, die personenbezogene Daten von Privatpersonen enthalten.
OpenAI-Konto mit Altersverifikation und individuellen Sicherheitsstandards in Modellen
Ein weiterer Kritikpunkt der italienischen Datenschutzbehörde ist die fehlende Altersverifikation bei der Account-Erstellung für ChatGPT, wodurch auch Kinder unter 13 Jahren Zugang zu dem Dienst haben. OpenAI prüfe derzeit Verifizierungstechnologien, heißt es in der Stellungnahme.
In den Nutzungsrichtlinien gibt OpenAI das Mindestalter für die Nutzung mit 18 Jahren an, oder 13 Jahre und älter mit Erlaubnis der Eltern. Ohne Zugangsbeschränkung sei dies aber eine wirkungslose Maßnahme - und da ChatGPT eine hervorragende Hausaufgabenhilfe sei, würden gerade Kinder von dem Dienst angezogen.
OpenAI hat laut eigenen Angaben "erhebliche Anstrengungen" unternommen, um sicherzustellen, dass die Modelle keine für Kinder schädlichen Inhalte produzieren, und arbeitet mit der gemeinnützigen Khan Academy an einem KI-Assistenten für den Unterricht, der sowohl Schüler als auch Lehrer unterstützen soll. Entwickler werden in Zukunft die Möglichkeit haben, noch höhere Sicherheitsstandards als die von OpenAI standardmäßig vorgesehenen zu implementieren.