Die New York Times soll jemanden bezahlt haben, um OpenAI-Modell per Prompt zu "hacken"
Kurz & Knapp
- OpenAI wirft der New York Times vor, ihre Produkte in zehntausenden Versuchen mit betrügerischen Prompts "gehackt" zu haben. Nur so sei es möglich gewesen, exakte Kopien von NYT-Artikeln auszugeben. Dazu sei eine externe Firma beauftragt worden.
- OpenAI behauptet, die Times habe Zehntausende von Versuchen unternommen, um die in der Beschwerde beschriebenen höchst anomalen Ergebnisse zu erzeugen, indem sie einen seltenen Fehler im Lernprozess des Systems ausgenutzt habe.
- Die New York Times wirft OpenAI vor, seine KI-Modelle ohne Erlaubnis auf Artikel der NYT trainiert zu haben. Verhandlungen über eine nachträgliche Lizenzierung scheiterten im Vorfeld der Klage.
OpenAI beschuldigt die New York Times, ihre Produkte im Rahmen eines laufenden Urheberrechtsstreits zu "hacken".
In einer kürzlich eingereichten Klage behauptet OpenAI, dass eine von der Times bezahlte Person "betrügerische Prompts" verwendet, um Kopien von NYT-Artikeln zu erstellen. Diese Prompts würden gegen die Nutzungsbedingungen verstoßen. Die NYT hat in ihrer Anklageschrift gegen OpenAI gezeigt, dass GPT-Modelle Kopien von NYT-Artikeln erzeugen können.
Die Behauptungen in der Beschwerde der Times entsprechen nicht ihren bekanntermaßen strengen journalistischen Standards. Die Wahrheit, die in diesem Fall ans Licht kommen wird, ist, dass die Times jemanden dafür bezahlt hat, die OpenAI-Produkte zu hacken. Es waren Zehntausende von Versuchen nötig, um die höchst anomalen Ergebnisse zu erzeugen, die in Anhang J der Beschwerde enthalten sind. Sie waren dazu nur in der Lage, indem sie einen Fehler (zu dessen Behebung sich OpenAI verpflichtet hat) gezielt ausnutzten, indem sie irreführende Eingabeaufforderungen verwendeten, die in eklatanter Weise gegen die Nutzungsbedingungen von OpenAI verstoßen. Und selbst dann mussten sie das Tool mit Teilen genau der Artikel füttern, die sie buchstäblich aus ihm herauszupressen versuchten und die praktisch alle bereits auf mehreren öffentlichen Websites erschienen.
Dass OpenAI mit dieser Argumentation vor Gericht zieht, war zu erwarten: Bereits Anfang des Jahres hatte die KI-Firma der New York Times vorgeworfen, mit manipulativen Prompts gezielt Urheberrechtsverletzungen der KI-Modelle zu provozieren. Diese Prompts, die laut OpenAI gegen ihre Nutzungsbedingungen verstoßen, würden dazu verwendet, exakte Kopien der Inhalte der New York Times zu generieren.
Dieses angeblich provozierte "Wiederkäuen" von Inhalten sei ein seltener Fehler im Lernprozess der Systeme. Schon damals warf OpenAI der New York Times vor, nicht die ganze Wahrheit gesagt zu haben. Der Auszug aus der Anklageschrift konkretisiert den Vorwurf.
Der Anwalt der New York Times behauptet, das sogenannte "Hacking" sei lediglich die Suche nach Beweisen für urheberrechtlich geschützte Inhalte in den KI-Modellen von OpenAI gewesen.
KI-News ohne Hype
Von Menschen kuratiert.
- Mehr als 20 Prozent Launch-Rabatt.
- Lesen ohne Ablenkung – keine Google-Werbebanner.
- Zugang zum Kommentarsystem und Austausch mit der Community.
- Wöchentlicher KI-Newsletter.
- 6× jährlich: „KI Radar“ – Deep-Dives zu den wichtigsten KI-Themen.
- Bis zu 25 % Rabatt auf KI Pro Online-Events.
- Zugang zum kompletten Archiv der letzten zehn Jahre.
- Die neuesten KI‑Infos von The Decoder – klar und auf den Punkt.