Inhalt
summary Zusammenfassung

Meta hat einen Rechtsstreit über die Nutzung urheberrechtlich geschützter Bücher für das Training seiner Llama-Sprachmodelle gewonnen. Das Urteil ist jedoch kein Freifahrtschein für KI-Training und könnte künftige Klagen sogar stärken.

Anzeige

Ein US-Bundesgericht in Kalifornien hat Meta im Streit um die Nutzung urheberrechtlich geschützter Werke für das Training seiner Sprachmodelle Llama teilweise Recht gegeben. Die Klage von dreizehn Autorinnen und Autoren, darunter Pulitzer-Preisträger wie Junot Díaz und Andrew Sean Greer, wurde in zentralen Punkten abgewiesen.

Das Gericht begründet das Urteil mit unzureichender Beweisführung aufseiten der Kläger – betont aber, dass die Entscheidung keine grundsätzliche Legitimierung von KI-Training mit geschützten Werken darstellt. Das Urteil betrifft explizit ausschließlich die 13 klagenden Autoren.

Gericht sieht transformative Nutzung – aber Marktbeeinträchtigung bleibt relevant

Die zentrale rechtliche Frage war, ob das Training generativer KI-Modelle mit urheberrechtlich geschützten Werken unter die sogenannte Fair-Use-Doktrin fällt. Diese erlaubt unter bestimmten Bedingungen die Nutzung geschützter Werke ohne Lizenz.

Anzeige
Anzeige

Das Gericht kam zu dem Schluss, dass Metas Nutzung der Bücher zur Entwicklung eines Sprachmodells eine "hochgradig transformative" Nutzung sei. Die Modelle dienen nicht der Unterhaltung, sondern der Generierung neuer Texte auf Nutzeranfrage, die zahlreiche Aufgaben abdecken.

Der kommerzielle Zweck der Nutzung – Meta erwartet laut Gericht Einnahmen von bis zu 1,4 Billionen US-Dollar in den kommenden zehn Jahren – spricht zwar eher gegen eine Bewertung nach dem Fair-Use-Prinzip. Das Gericht entschied jedoch, dass dies angesichts der gegebenen Transformativität nicht entscheidend sei.

Kläger scheitern an Beweislast zu Marktschäden

Entscheidend für das Urteil war der vierte Fair-Use-Faktor: die Auswirkung auf den Marktwert der Originalwerke. Die Kläger hatten argumentiert, dass Meta durch unlizenzierte Nutzung den Markt für Trainingslizenzen untergrabe und eine potenzielle Marktflutung durch KI-generierte Konkurrenzwerke ermögliche.

Das Gericht wies beide Argumente zurück. Die Existenz eines Lizenzmarktes allein sei kein Beleg für eine Verletzung – sonst wäre jede transformative Nutzung grundsätzlich ausgeschlossen. Den zweiten Punkt, die Marktflutung durch KI-generierte Konkurrenztexte, hätten die Kläger "kaum angesprochen" und "nicht mit Beweisen unterfüttert", so das Urteil. Es liege keine empirische Analyse vor, ob und wie Llama-Modelle tatsächlich den Absatz der Originalwerke beeinträchtigen.

Meta hatte laut Gericht versucht, Lizenzen bei Verlagen zu erwerben, war aber an rechtlichen und organisatorischen Hürden gescheitert. Anschließend entschied sich das Unternehmen, die Bücher direkt aus Schattenbibliotheken wie LibGen und Anna's Archive zu beziehen.

Empfehlung

Technische Maßnahmen sollten verhindern, dass die Modelle Textpassagen aus den Büchern direkt wiedergeben. Tests zeigten, dass selbst bei gezieltem Prompting höchstens 50 Wörter aus den Werken reproduziert wurden.

Das Gericht erkannte zwar an, dass dies problematisch sei, sah darin jedoch keinen automatischen Ausschlussgrund für Fair Use. Entscheidend sei nicht die Herkunft der Daten, sondern die Art und das Ausmaß der Nutzung.

Das bewertete Richter William Alsup in seinem Anthropic-Urteil diese Woche ganz anders: Dort hieß es, dass die Nutzung urheberrechtlich geschützter Bücher aus Piratenquellen wie Books3 oder LibGen nicht unter die Fair-Use-Doktrin falle. Die bloße Absicht, eine rechtmäßige Nutzung zu entwickeln, rechtfertige keinen Rechtsverstoß.

Urteil mit Signalwirkung – aber noch lange keine Freigabe für KI-Training auf Copyright-Daten

Das Gericht betont, dass das Urteil keine Aussage darüber trifft, ob Metas Vorgehen grundsätzlich legal ist. Vielmehr hätten die Kläger "die falschen Argumente gemacht und es versäumt, die richtigen zu belegen". In künftigen Verfahren könnten Autoren mit besser belegten Argumentationen zur Marktbeeinträchtigung Erfolg haben.

Anzeige
Anzeige
Community beitreten
Kommt in die DECODER-Community bei Discord,Reddit, Twitter und Co. - wir freuen uns auf euch!

Insbesondere die Möglichkeit, dass KI-Modelle massenhaft Bücher in bestimmten Genres erzeugen und damit den Absatz menschlich geschriebener Werke untergraben, sei ein ernstzunehmender Aspekt, der bei anderen Verfahren stärker ins Gewicht fallen könne.

Das Gericht macht deutlich, dass ein Verbot des KI-Trainings mit geschützten Werken nicht zwingend notwendig sei. Vielmehr müssten Unternehmen wie Meta in vielen Fällen schlicht Lizenzen erwerben.

In der Urteilsbegründung nutzte Richter Vince Chhabria auch die Gelegenheit, um deutliche Seitenhiebe gegen andere Urteile und die KI-Industrie auszuteilen: Die Behauptung, dass strengere Urheberrechtsregeln die Entwicklung von KI ausbremsen würden, bezeichnete das Gericht als "lächerlich". Wenn urheberrechtlich geschützte Werke für das Training notwendig seien, werde die Industrie Wege finden, die Rechteinhaber zu bezahlen.

Besonders scharf kritisierte er den Richterkollegen William Alsup, der in seinem parallelen Verfahren gegen Anthropic argumentiert hatte, KI-Training sei ähnlich harmlos wie das Lesen von Büchern durch Schulkinder. Chhabria wies diese Analogie als "völlig unpassend" zurück. Ein KI-Modelle könne mit minimalem Zeit- und Kreativitätsaufwand unzählige konkurrierende Werke zu erzeugen.

Schließlich ließ Chhabria durchblicken, dass Meta bei besser vorbereiteten Klägern mit fundierterer Argumentation durchaus verlieren könnte. Zwar sei KI-Training transformativ, aber: "Es ist schwer vorstellbar, dass es sich bei der Verwendung urheberrechtlich geschützter Bücher, um ein Produkt zu bauen, das Milliarden oder gar Billionen einspielt und gleichzeitig eine potenziell endlose Flut konkurrierender Werke erzeugt, die den Markt für diese Bücher erheblich schädigen könnten, um Fair Use handeln kann."

Unterstütze unsere unabhängige, frei zugängliche Berichterstattung. Jeder Betrag hilft und sichert unsere Zukunft. Jetzt unterstützen:
Banküberweisung
Zusammenfassung
  • Ein US-Bundesgericht in Kalifornien hat Meta im Streit um das Training seiner Llama-Modelle mit urheberrechtlich geschützten Büchern teilweise Recht gegeben und zentrale Punkte der Klage von dreizehn Autorinnen und Autoren abgewiesen, da diese ihre Argumente zu Marktschäden nicht ausreichend belegen konnten.
  • Das Gericht betonte, dass Metas Nutzung der Bücher zwar als "hochgradig transformativ" gelte, aber der kommerzielle Zweck und die Herkunft der Daten aus Schattenbibliotheken nicht automatisch unter Fair Use fallen – entscheidend sei vor allem die konkrete Auswirkung auf den Marktwert der Originalwerke.
  • Richter Vince Chhabria kritisierte in seiner Urteilsbegründung sowohl die Behauptung, strengere Urheberrechtsregeln würden KI-Entwicklung ausbremsen, als auch die Analogie eines Richterkollegen, der KI-Training mit dem Lesen von Büchern durch Schulkinder verglichen hatte, und stellte klar, dass bei besser belegten Klagen Meta durchaus verlieren könnte.
Quellen
Online-Journalist Matthias ist Gründer und Herausgeber von THE DECODER. Er ist davon überzeugt, dass Künstliche Intelligenz die Beziehung zwischen Mensch und Computer grundlegend verändern wird.
Community beitreten
Kommt in die DECODER-Community bei Discord,Reddit, Twitter und Co. - wir freuen uns auf euch!