Ein kalifornisches Bundesgericht hat eine Sammelklage gegen das KI-Unternehmen Anthropic wegen massenhafter Urheberrechtsverletzungen zugelassen.
Die Klage betrifft bis zu sieben Millionen Bücher, die das Unternehmen zwischen 2021 und 2022 aus Piratenquellen wie LibGen und PiLiMi heruntergeladen haben soll. Damit droht dem Entwickler des Sprachmodells Claude ein Schadensersatzprozess in Milliardenhöhe – trotz eines scheinbaren Teilerfolgs im Fair-Use-Verfahren wenige Wochen zuvor.
"Napster-Style"-Piraterie auf Millionenbasis
Laut dem Gerichtsbeschluss vom 17. Juli 2025 hat Anthropic gezielt Raubkopien von Büchern aus den genannten Bibliotheken per BitTorrent-Protokoll geladen. Die Dateien – meist im .epub-, .pdf- oder .txt-Format – wurden dauerhaft in einer zentralen internen Bibliothek gespeichert, unabhängig davon, ob sie später für das KI-Training verwendet wurden.
Der zuständige Bundesrichter William Alsup beschreibt diese Vorgehensweise in seinem Urteil als eine "Napster-ähnliche Urheberrechtsverletzung". Zwischen Januar 2021 und Juli 2022 habe ein Anthropic-Mitgründer zunächst rund 200.000 Bücher aus der Sammlung Books3 heruntergeladen. Später folgten rund fünf Millionen Werke aus LibGen sowie zwei Millionen zusätzliche aus PiLiMi – gezielt solche, die nicht bereits in der LibGen-Datenbank enthalten waren.
Das Gericht betont, dass ein Prozess nur als Sammelklage effizient durchführbar sei. Einzelklagen würden angesichts des Umfangs und der Komplexität der Beweislage weder den Klägern noch dem Gerichtssystem gerecht. Zunächst bezieht sich die Sammelklage auf Werke aus LibGen und PiLiMi; das kleinere Books3‑Paket bleibt mangels verlässlicher Metadaten außen vor.
Durch die Zulassung der Sammelklage droht Anthropic ein potenzieller Schadensersatz in Milliardenhöhe. Der gesetzliche Höchstbetrag pro Werk bei vorsätzlicher Verletzung beträgt 150.000 US-Dollar. Selbst bei einer konservativen Schätzung von wenigen hundert US-Dollar Schadensersatz pro Werk ergibt sich eine erhebliche Summe.
Anthropic muss bis 1. August 2025 eine vollständige Metadatenliste seiner LibGen/PiLiMi‑Downloads vorlegen, die Klägerseite bis 1. September 2025 eine detaillierte Titel‑ und Registrierungsliste einreichen.
Fair Use schützt keine Raubkopien
Bereits im Juni hatte dasselbe Gericht entschieden, dass das Training von KI-Modellen mit legal erworbenen Büchern unter bestimmten Umständen durch die US-amerikanische Fair-Use-Klausel gedeckt sei – insbesondere, wenn die Nutzung "transformativ" sei und keine Kopien weitergegeben würden.
Doch für Werke aus Piratenquellen gelte dies nicht: Die dauerhafte Speicherung raubkopierter Werke in einer internen Bibliothek stelle keine faire Nutzung dar, betont das Gericht. Die Entscheidung machte deutlich, dass es keine Ausnahme im Urheberrecht für KI-Unternehmen gebe.
Das Verfahren gegen Anthropic dürfte daher weit über den Einzelfall hinaus Bedeutung haben. Es unterstreicht, dass KI-Unternehmen beim Datenbeschaffen nicht außerhalb des Urheberrechts agieren können – auch wenn die spätere Nutzung für das Modelltraining als transformativ gelten mag. Die Entscheidung könnte Auswirkungen auf andere laufende Verfahren haben, etwa gegen Meta oder OpenAI, in denen es ebenfalls um die Nutzung urheberrechtlich geschützter Inhalte geht.
Die rechtliche Grauzone beim massenhaften Webscraping und der Nutzung öffentlich zugänglicher Inhalte für das Training großer Sprachmodelle besteht weiterhin. Auch in diesem Fall haben sich die KI-Firmen an Inhalten bedient, die zwar öffentlich zugänglich waren, jedoch nicht für das KI-Training bestimmt waren.
Das Gericht in Kalifornien hat nun zumindest eine erste klare Linie gezogen. Wer Raubkopien nutzt, kann sich nicht auf "Fair Use" berufen – auch nicht im Namen der KI-Innovation.