Die New York Times fordert im Rahmen ihrer Urheberrechtsklage gegen OpenAI die unbegrenzte Speicherung aller Nutzerdaten. OpenAI sieht darin einen Angriff auf den Datenschutz und wehrt sich juristisch, muss der Anordnung aber zunächst Folge leisten.
OpenAI widersetzt sich einer gerichtlichen Anordnung, die im Zusammenhang mit der laufenden Urheberrechtsklage der New York Times (NYT) erlassen wurde. Die NYT verlangt, dass OpenAI sämtliche Nutzerinhalte aus ChatGPT und der API dauerhaft speichert – auch solche, die von Nutzern bereits gelöscht wurden. Begründet wird dies mit der Möglichkeit, später belastendes Material für die Klage zu finden.
OpenAI kritisiert die Forderung als überzogen und datenschutzwidrig. COO Brad Lightcap bezeichnet sie als "Übergriff", der das Vertrauen der Nutzer gefährde und etablierte Datenschutzstandards untergrabe. Normalerweise werden Inhalte laut OpenAI spätestens nach 30 Tagen gelöscht.
Betroffen sind ChatGPT-Nutzer und API-Kunden
Von der Anordnung betroffen sind Nutzer von ChatGPT Free, Plus, Pro und Team sowie API-Kunden ohne Zero-Data-Retention-Vereinbarung. Nicht betroffen sind Kunden von ChatGPT Enterprise, ChatGPT Edu sowie API-Nutzer mit aktivierter Zero Data Retention: Bei diesen Gruppen werden Eingaben und Ausgaben grundsätzlich nicht gespeichert.
Die fraglichen Daten werden laut OpenAI unter einer rechtlichen Sperre (Legal Hold) auf gesicherten Systemen gespeichert. Nur ein kleiner, geprüfter Kreis von Mitarbeitenden aus den Bereichen Recht und Sicherheit hat Zugriff – ausschließlich zur Erfüllung gesetzlicher Vorgaben. Eine automatische Weitergabe an die Kläger ist ausgeschlossen.
OpenAI hat juristische Schritte gegen die Anordnung eingeleitet: Ein Antrag auf Überprüfung durch den zuständigen Magistratsrichter ist gestellt, zusätzlich läuft eine Berufung vor dem Bezirksgericht. Bis zu einer Entscheidung wird sich das Unternehmen an die gerichtliche Anordnung halten.
Laut OpenAI hat die Anordnung keinen Einfluss auf bestehende Trainingsrichtlinien. Geschäftskundendaten werden weiterhin nicht zum Training verwendet. Privatnutzer können selbst entscheiden, ob ihre Inhalte zur Verbesserung der Modelle beitragen sollen.