OpenAI beschuldigt die New York Times, ihre Produkte im Rahmen eines laufenden Urheberrechtsstreits zu "hacken".
In einer kürzlich eingereichten Klage behauptet OpenAI, dass eine von der Times bezahlte Person "betrügerische Prompts" verwendet, um Kopien von NYT-Artikeln zu erstellen. Diese Prompts würden gegen die Nutzungsbedingungen verstoßen. Die NYT hat in ihrer Anklageschrift gegen OpenAI gezeigt, dass GPT-Modelle Kopien von NYT-Artikeln erzeugen können.
Die Behauptungen in der Beschwerde der Times entsprechen nicht ihren bekanntermaßen strengen journalistischen Standards. Die Wahrheit, die in diesem Fall ans Licht kommen wird, ist, dass die Times jemanden dafür bezahlt hat, die OpenAI-Produkte zu hacken. Es waren Zehntausende von Versuchen nötig, um die höchst anomalen Ergebnisse zu erzeugen, die in Anhang J der Beschwerde enthalten sind. Sie waren dazu nur in der Lage, indem sie einen Fehler (zu dessen Behebung sich OpenAI verpflichtet hat) gezielt ausnutzten, indem sie irreführende Eingabeaufforderungen verwendeten, die in eklatanter Weise gegen die Nutzungsbedingungen von OpenAI verstoßen. Und selbst dann mussten sie das Tool mit Teilen genau der Artikel füttern, die sie buchstäblich aus ihm herauszupressen versuchten und die praktisch alle bereits auf mehreren öffentlichen Websites erschienen.
Dass OpenAI mit dieser Argumentation vor Gericht zieht, war zu erwarten: Bereits Anfang des Jahres hatte die KI-Firma der New York Times vorgeworfen, mit manipulativen Prompts gezielt Urheberrechtsverletzungen der KI-Modelle zu provozieren. Diese Prompts, die laut OpenAI gegen ihre Nutzungsbedingungen verstoßen, würden dazu verwendet, exakte Kopien der Inhalte der New York Times zu generieren.
Dieses angeblich provozierte "Wiederkäuen" von Inhalten sei ein seltener Fehler im Lernprozess der Systeme. Schon damals warf OpenAI der New York Times vor, nicht die ganze Wahrheit gesagt zu haben. Der Auszug aus der Anklageschrift konkretisiert den Vorwurf.
Der Anwalt der New York Times behauptet, das sogenannte "Hacking" sei lediglich die Suche nach Beweisen für urheberrechtlich geschützte Inhalte in den KI-Modellen von OpenAI gewesen.