Anzeige
Skip to content

KI-Forscher zeigen, dass Sprachmodelle urheberrechtlich geschützte Bücher auswendig können

Image description
Sora prompted by THE DECODER

Kurz & Knapp

  • Ein Forschungsteam hat mit RECAP eine Methode entwickelt, mit der sich gezielt überprüfen lässt, ob große KI-Modelle Textpassagen aus Büchern wortwörtlich wiedergeben können, auch aus urheberrechtlich geschützten Werken wie "Harry Potter".
  • RECAP nutzt eine Feedback-Schleife aus mehreren Sprachmodellen und ein Jailbreaking-Modul, um die Modelle dazu zu bringen, selbst längere Abschnitte zu reproduzieren, und vergleicht die Ergebnisse mit den Originaltexten; dabei wurden deutlich mehr Passagen gefunden als mit bisherigen Methoden.
  • Die Technik könnte für Urheberrechtsstreitigkeiten relevant werden, da sie nachweist, dass KI-Modelle Inhalte tatsächlich auswendig gelernt haben; aktuelle Gerichtsurteile bewerten diese Frage uneinheitlich.

Ein neues Forschungspapier zeigt, dass große Sprachmodelle Textstellen aus bekannten Büchern fast wortwörtlich wiedergeben können. Die Methode könnte eine hohe Relevanz für kommende Copyright-Verfahren haben.

Ein Forschungsteam der Carnegie Mellon University und des Instituto Superior Técnico hat mit "RECAP" eine Technik entwickelt, mit der sich überprüfen lässt, welche Texte ein KI-Modell tatsächlich auswendig gelernt hat. Das Verfahren nutzt eine Feedback-Schleife aus mehreren Sprachmodellen, um Inhalte aus dem Training gezielt zu rekonstruieren. Laut dem Paper auf arXiv kann RECAP auch Passagen aus urheberrechtlich geschützten Büchern wiedergeben.

RECAP wurde entwickelt, weil die Trainingsdaten großer Modelle in der Regel nicht offengelegt werden; unter anderem deshalb, weil, je nach Anbieter, gesichert oder mutmaßlich ohne vorherige Freigabe urheberrechtlich geschützte Werke für das Training genutzt werden.

Die Methode zeigt, ob ein Modell längere Textabschnitte selbstständig reproduzieren kann. Da viele Modelle entsprechende Anfragen ablehnen, enthält RECAP ein Jailbreaking-Modul, das die Prompts umformuliert, bis die Ausgabe erfolgt. Eine zweite KI analysiert die Antwort, vergleicht sie mit der Originalstelle und gibt allgemeines Feedback, ohne den Quelltext direkt zu zitieren. Schon nach einer Iteration verbesserten sich viele Ergebnisse deutlich.

Anzeige
DEC_D_Incontent-1

Diagramm des RECAP‑Ablaufs: Von der Eingabe textbasierter Dokumente über einen Section Summary Agent zur Extraktion wörtlicher Passagen. Dann prüft ein Verbatim Verifier, ob die Antwort akzeptiert oder verweigert wurde. Bei Ablehnung greift der Jailbreaker ein, ansonsten erstellt der Feedback Agent Verbesserungsanweisungen. Der Prozess wiederholt sich bis zu fünf Mal.
Das RECAP‑System arbeitet in fünf Schritten: Es segmentiert Texte, versucht, deren Passagen zu reproduzieren, bewertet die Ausgaben und korrigiert sie iterativ. Ein Jailbreaking‑Modul formuliert abgelehnte Anfragen neu, während eine Feedback‑Schleife das Ergebnis bis zu fünfmal verfeinert. | Bild: Duarte et al.

In den Tests konnte RECAP Teile aus Werken wie "Der Hobbit" oder "Harry Potter" erstaunlich genau rekonstruieren. Die Forschenden berichten, dass Claude 3.7 mit RECAP rund 3000 Passagen aus dem ersten "Harry Potter"-Buch erzeugen konnte, während frühere Methoden nur 75 Abschnitte fanden.

Balkendiagramm, das die Wiedergabeleistung von Sprachmodellen bei verschiedenen Büchern zeigt. Gemeinfreie Werke wie „Frankenstein“ und „Die Abenteuer des Sherlock Holmes“ erreichen hohe Genauigkeit, urheberrechtlich geschützte Titel wie „Der Hobbit“ oder „Harry Potter“ liegen etwas niedriger, aber klar über dem Durchschnitt nicht trainierter Daten.
RECAP zeigt, dass große Sprachmodelle sowohl gemeinfreie als auch urheberrechtlich geschützte Bücher teilweise wörtlich reproduzieren können. Bei Tests lagen die Wiedererkennungswerte (ROUGE‑L) bei gemeinfreien Werken erwartungsgemäß höher, doch auch geschützte Bücher wurden umfangreich wiedergegeben. | Bild: Duarte et al.

Neuer Datensatz testet Copyright-Grenzen

Der neue Benchmark der Forscher, "EchoTrace", umfasst 35 vollständige Bücher – darunter 15 gemeinfreie Klassiker, 15 urheberrechtlich geschützte Bestseller und fünf neu erschienene Titel, die sicher nicht im Training der getesteten Modelle enthalten waren. Hinzu kommen 20 wissenschaftliche Artikel von arXiv.

Das Ergebnis: Modelle können Inhalte aus allen Kategorien teilweise nahezu exakt wiedergeben, bei den neueren, nicht trainierten Büchern dagegen kaum. Das bestärkt die These, dass sich die Modelle an im Training gesehene Artikel erinnern.

Das Team sieht in RECAP entsprechend ein Werkzeug, um nachvollziehbar zu prüfen, welche Daten in großen KI-Modellen enthalten sind. Für die zahlreichen Copyright-Klagen könnte das eine wichtige Rolle spielen. Auch bei Bildmodellen konnte schon anekdotisch nachgewiesen werden, dass sie Ausgaben generieren können, die fast mit Originaldaten übereinstimmen.

Anzeige
DEC_D_Incontent-2

Entsprechend verweist das Paper auch auf ein Gerichtsurteil, das Anthropic im Streit um Trainingsdaten zugunsten von "Fair Use" entschied, jedoch mit der Annahme des Gerichts, dass keine gezielte Memorisierung vorliegt. Verfahren wie RECAP könnten genau hier künftig Beweise liefern. Der Code ist auf GitHub veröffentlicht, der Datensatz "EchoTrace" auf Hugging Face.

Zwei aktuelle Urteile zeigen, wie unterschiedlich Gerichte derzeit urteilen. Ein britisches Gericht entschied, dass Modellgewichte – die während des Trainings entstehenden Datenwerte – keinen urheberrechtlich geschützten Inhalt enthalten und das Modell daher selbst keinen Verstoß darstellt.

Das Münchner Landgericht kam zum gegenteiligen Ergebnis: Schon das Abspeichern der Daten in Modellgewichten verstoße gegen das Urheberrecht, ebenso wie der Output, wenn er Text wörtlich wiedergibt. Dabei ging es um Songtexte. Dieses Urteil könnte durch die RECAP-Ergebnisse weiter gestützt werden.

 

Quelle: Paper