Meta hat einen Rechtsstreit über die Nutzung urheberrechtlich geschützter Bücher für das Training seiner Llama-Sprachmodelle gewonnen. Das Urteil ist jedoch kein Freifahrtschein für KI-Training und könnte künftige Klagen sogar stärken.
Ein US-Bundesgericht in Kalifornien hat Meta im Streit um die Nutzung urheberrechtlich geschützter Werke für das Training seiner Sprachmodelle Llama teilweise Recht gegeben. Die Klage von dreizehn Autorinnen und Autoren, darunter Pulitzer-Preisträger wie Junot Díaz und Andrew Sean Greer, wurde in zentralen Punkten abgewiesen.
Das Gericht begründet das Urteil mit unzureichender Beweisführung aufseiten der Kläger – betont aber, dass die Entscheidung keine grundsätzliche Legitimierung von KI-Training mit geschützten Werken darstellt. Das Urteil betrifft explizit ausschließlich die 13 klagenden Autoren.
Gericht sieht transformative Nutzung – aber Marktbeeinträchtigung bleibt relevant
Die zentrale rechtliche Frage war, ob das Training generativer KI-Modelle mit urheberrechtlich geschützten Werken unter die sogenannte Fair-Use-Doktrin fällt. Diese erlaubt unter bestimmten Bedingungen die Nutzung geschützter Werke ohne Lizenz.
Das Gericht kam zu dem Schluss, dass Metas Nutzung der Bücher zur Entwicklung eines Sprachmodells eine "hochgradig transformative" Nutzung sei. Die Modelle dienen nicht der Unterhaltung, sondern der Generierung neuer Texte auf Nutzeranfrage, die zahlreiche Aufgaben abdecken.
Der kommerzielle Zweck der Nutzung – Meta erwartet laut Gericht Einnahmen von bis zu 1,4 Billionen US-Dollar in den kommenden zehn Jahren – spricht zwar eher gegen eine Bewertung nach dem Fair-Use-Prinzip. Das Gericht entschied jedoch, dass dies angesichts der gegebenen Transformativität nicht entscheidend sei.
Kläger scheitern an Beweislast zu Marktschäden
Entscheidend für das Urteil war der vierte Fair-Use-Faktor: die Auswirkung auf den Marktwert der Originalwerke. Die Kläger hatten argumentiert, dass Meta durch unlizenzierte Nutzung den Markt für Trainingslizenzen untergrabe und eine potenzielle Marktflutung durch KI-generierte Konkurrenzwerke ermögliche.
Das Gericht wies beide Argumente zurück. Die Existenz eines Lizenzmarktes allein sei kein Beleg für eine Verletzung – sonst wäre jede transformative Nutzung grundsätzlich ausgeschlossen. Den zweiten Punkt, die Marktflutung durch KI-generierte Konkurrenztexte, hätten die Kläger "kaum angesprochen" und "nicht mit Beweisen unterfüttert", so das Urteil. Es liege keine empirische Analyse vor, ob und wie Llama-Modelle tatsächlich den Absatz der Originalwerke beeinträchtigen.
Meta hatte laut Gericht versucht, Lizenzen bei Verlagen zu erwerben, war aber an rechtlichen und organisatorischen Hürden gescheitert. Anschließend entschied sich das Unternehmen, die Bücher direkt aus Schattenbibliotheken wie LibGen und Anna's Archive zu beziehen.
Technische Maßnahmen sollten verhindern, dass die Modelle Textpassagen aus den Büchern direkt wiedergeben. Tests zeigten, dass selbst bei gezieltem Prompting höchstens 50 Wörter aus den Werken reproduziert wurden.
Das Gericht erkannte zwar an, dass dies problematisch sei, sah darin jedoch keinen automatischen Ausschlussgrund für Fair Use. Entscheidend sei nicht die Herkunft der Daten, sondern die Art und das Ausmaß der Nutzung.
Das bewertete Richter William Alsup in seinem Anthropic-Urteil diese Woche ganz anders: Dort hieß es, dass die Nutzung urheberrechtlich geschützter Bücher aus Piratenquellen wie Books3 oder LibGen nicht unter die Fair-Use-Doktrin falle. Die bloße Absicht, eine rechtmäßige Nutzung zu entwickeln, rechtfertige keinen Rechtsverstoß.
Urteil mit Signalwirkung – aber noch lange keine Freigabe für KI-Training auf Copyright-Daten
Das Gericht betont, dass das Urteil keine Aussage darüber trifft, ob Metas Vorgehen grundsätzlich legal ist. Vielmehr hätten die Kläger "die falschen Argumente gemacht und es versäumt, die richtigen zu belegen". In künftigen Verfahren könnten Autoren mit besser belegten Argumentationen zur Marktbeeinträchtigung Erfolg haben.
Insbesondere die Möglichkeit, dass KI-Modelle massenhaft Bücher in bestimmten Genres erzeugen und damit den Absatz menschlich geschriebener Werke untergraben, sei ein ernstzunehmender Aspekt, der bei anderen Verfahren stärker ins Gewicht fallen könne.
Das Gericht macht deutlich, dass ein Verbot des KI-Trainings mit geschützten Werken nicht zwingend notwendig sei. Vielmehr müssten Unternehmen wie Meta in vielen Fällen schlicht Lizenzen erwerben.
In der Urteilsbegründung nutzte Richter Vince Chhabria auch die Gelegenheit, um deutliche Seitenhiebe gegen andere Urteile und die KI-Industrie auszuteilen: Die Behauptung, dass strengere Urheberrechtsregeln die Entwicklung von KI ausbremsen würden, bezeichnete das Gericht als "lächerlich". Wenn urheberrechtlich geschützte Werke für das Training notwendig seien, werde die Industrie Wege finden, die Rechteinhaber zu bezahlen.
Besonders scharf kritisierte er den Richterkollegen William Alsup, der in seinem parallelen Verfahren gegen Anthropic argumentiert hatte, KI-Training sei ähnlich harmlos wie das Lesen von Büchern durch Schulkinder. Chhabria wies diese Analogie als "völlig unpassend" zurück. Ein KI-Modelle könne mit minimalem Zeit- und Kreativitätsaufwand unzählige konkurrierende Werke zu erzeugen.
Schließlich ließ Chhabria durchblicken, dass Meta bei besser vorbereiteten Klägern mit fundierterer Argumentation durchaus verlieren könnte. Zwar sei KI-Training transformativ, aber: "Es ist schwer vorstellbar, dass es sich bei der Verwendung urheberrechtlich geschützter Bücher, um ein Produkt zu bauen, das Milliarden oder gar Billionen einspielt und gleichzeitig eine potenziell endlose Flut konkurrierender Werke erzeugt, die den Markt für diese Bücher erheblich schädigen könnten, um Fair Use handeln kann."