Das KI-Copyright-Dilemma geht weiter: Zwei Gerichte, zwei völlig gegensätzliche Urteile
Kurz & Knapp
- Das Landgericht München hat entschieden, dass OpenAI mit seinen Sprachmodellen urheberrechtlich geschützte Liedtexte rechtswidrig vervielfältigt und öffentlich zugänglich macht, da die Werke als Outputs reproduzierbar sind und in den Modellparametern verkörpert werden.
- Die Richter sehen die Hauptverantwortung bei den Betreibern der Modelle, nicht bei den Nutzern, und sprechen der GEMA daher umfangreiche Unterlassungs-, Auskunfts- und Schadensersatzansprüche zu – das Urteil ist allerdings noch nicht rechtskräftig.
- Das Urteil widerspricht komplett einem aktuellen Urteil aus Großbritannien, das KI-Modelle nicht als rechtsverletzende Kopien ansieht. Das zeigt, dass die rechtliche Bewertung von KI und Copyright in Europa weit von einem Konsens entfernt ist.
Wer hofft, dass die Justiz die seit Jahren laufenden Diskussionen rund um KI und Copyright bald auflösen wird, darf weiter hoffen. Nur wenige Tage nach einem vermeintlich wegweisenden Urteil in Großbritannien kommt das Landgericht München im Kern zu einem entgegengesetzten Ergebnis.
Ende letzten Jahres hatte die GEMA OpenAI wegen der mutmaßlichen Wiedergabe urheberrechtlich geschützter Songtexte durch ChatGPT verklagt – ohne Lizenzerwerb oder Vergütung der beteiligten Urheber. Das Landgericht München gab der Verwertungsgesellschaft nun weitgehend Recht und sprach Unterlassungs-, Auskunfts- und Schadensersatzansprüche zu. Das Urteil ist noch nicht rechtskräftig.
Die Entscheidung betrifft Liedtexte von neun bekannten Urheberinnen und Urhebern, darunter "Atemlos" von Kristina Bach und "Wie schön, dass du geboren bist" von Rolf Zuckowski. Nach Darstellung der GEMA seien die Texte in den Modellen der Beklagten memorisiert und würden bei einfachen Nutzeranfragen in weiten Teilen originalgetreu ausgegeben.
OpenAI argumentierte dagegen, Sprachmodelle speicherten keine konkreten Trainingsdaten, sondern lediglich erlernte Muster. Etwaige Urheberrechtseingriffe seien durch Schrankenbestimmungen wie das Text- und Data-Mining gedeckt.
Parameter als Werkexemplar: München bejaht Vervielfältigung bereits im Modell
Nach Überzeugung der Kammer sind die streitigen Liedtexte reproduzierbar in den Sprachmodellen "4" und "4o" enthalten. Aus der Forschung sei bekannt, dass Trainingsdaten in Sprachmodellen gespeichert sein und sich als Ausgaben wieder extrahieren lassen können – ein Phänomen, das als Memorisierung bezeichnet wird.
Der Abgleich der in den Trainingsdaten enthaltenen Liedtexte mit den generierten Antworten habe dies bestätigt; angesichts der Länge und Komplexität der Texte schließe die Kammer Zufall als Erklärung aus, heißt es in der Pressemitteilung.
Für das Gericht liegt bereits in dieser Festlegung eine urheberrechtlich relevante Vervielfältigung vor. Die Liedtexte seien in den Parametern der Modelle festgelegt und damit verkörpert. Dass diese Festlegung in Form von Wahrscheinlichkeitswerten erfolge, sei unerheblich. Die zugrunde liegende EU-Richtlinie erfasse Vervielfältigungen „auf jede Art und Weise und in jeder Form“, argumentiert das Gericht.
Zwar würden große Sprachmodelle grundsätzlich in den Anwendungsbereich des Text- und Data-Minings (TDM) fallen, also in Kopien zu Analysezwecken. Doch diese Schranke erfasse nur die notwendigen Vervielfältigungen beim Zusammenstellen des Trainingsdatensatzes. Wenn jedoch – wie hier – Werke im Modell selbst festgelegt und damit vervielfältigt werden, liege nach Auffassung des Gerichts kein TDM vor.
Anbieter haften für ihre Outputs
Die Kammer sieht auch in den von den Chatbots ausgegebenen Texten unberechtigte Vervielfältigungen sowie ein öffentliches Zugänglichmachen der Werke. In den Ausgaben seien die originellen Elemente der Liedtexte stets wiedererkennbar.
Nach Auffassung der Richter sind jedoch nicht die Nutzer der Chatbots verantwortlich, sondern deren Betreiber. Maßgeblich sei, dass die Beklagten die Sprachmodelle betreiben, die Trainingsdaten ausgewählt, die Modelle trainiert und die Architektur sowie die Memorisierung zu verantworten haben. Damit hätten die Modelle der Beklagten den konkreten Inhalt der Ausgaben maßgeblich geprägt, heißt es in der Mitteilung des Landgerichts.
KI und Copyright: Alles eine Frage der Interpretation
Das Münchner Urteil sticht hervor, weil es insbesondere beim Blick auf die Modellgewichte dem Ergebnis eines kurz zuvor ergangenen britischen Urteils widerspricht. Der High Court in London wies die Klage von Getty Images gegen Stability AI ab und stellte fest, dass ein KI-Modell nicht als "rechtsverletzende Kopie" gilt, solange seine Gewichte keine urheberrechtlich geschützten Werke speichern oder reproduzieren.
Damit treffen innerhalb weniger Tage zwei entgegengesetzte Rechtsauffassungen aufeinander: Für München genügt bereits die Festlegung eines Werks in den Modellparametern, um eine Vervielfältigung anzunehmen. London betont dagegen, dass die Gewichte nur gelernte Muster und Merkmale enthalten und daher keine gespeicherten Werke darstellen.
Die Folge ist eine grundlegende Divergenz: In Deutschland drohen bei nachgewiesener Memorisierung Unterlassung, Auskunft und Schadensersatz, während die britische Rechtsprechung die Modellgewichte ausdrücklich nicht als rechtsverletzende Kopie einstuft.