Eigene KI sabotiert Verteidigung: Claude erfindet Quelle im Prozess gegen Anthropic
Kurz & Knapp
- Im Urheberrechtsprozess mit mehreren Musikverlagen räumt Anthropic ein, dass der hauseigene Chatbot Claude eine erfundene Quelle generierte, die in einer Zeugenaussage als Beleg diente und bei der Überprüfung unentdeckt blieb.
- Claude wurde beauftragt, eine juristisch korrekte Zitierweise für einen Fachartikel zu erstellen, gab aber trotz korrektem Link und Titel falsche Autoren und einen unzutreffenden Titel an, ähnliche Fehler traten bei weiteren Zitaten auf.
- Nach Bekanntwerden der fehlerhaften Zitate verlangte die Richterin eine Stellungnahme. Anthropic betont, es handele sich um einen unbeabsichtigten Fehler und entschuldigte sich offiziell für die von Claude verursachten Zitierfehler.
Im Urheberrechtsstreit mit Musikverlagen musste sich das KI-Unternehmen Anthropic für eine fehlerhafte Quellenangabe entschuldigen. Die halluzinierte Quelle stammt von der firmeneigenen KI Claude.
Anthropic hat in einem laufenden Urheberrechtsprozess eingeräumt, dass der firmeneigene Chatbot Claude eine erfundene Quelle generierte, die in einem Gutachten als Beleg diente. Laut einem bei einem kalifornischen Bezirksgericht eingereichten Dokument habe Claude "einen unzutreffenden Titel und unzutreffende Autoren" erfunden. Wie aus der Gerichtsakte hervorgeht, wurde der Fehler bei einer manuellen Überprüfung nicht entdeckt – ebenso wenig wie mehrere weitere durch Claude verursachte Zitierfehler.
Die falsche Quelle fand sich in der Aussage von Olivia Chen, einer Anthropic-Mitarbeiterin, die als Expertin im Verfahren auftrat. Der Fall ist Teil eines Rechtsstreits zwischen Anthropic und mehreren Musikverlagen, darunter Universal Music Group, die dem Unternehmen Urheberrechtsverletzungen durch generative KI-Systeme vorwerfen.
Fehlerhafte Fußnote entstand durch KI-Formatierung
Laut Gerichtsunterlagen wurde Claude von Anthropics Anwälten explizit dazu verwendet, eine rechtlich korrekte Zitierweise für einen Artikel aus der Fachzeitschrift The American Statistician zu generieren. Dabei handelte es sich um den Beitrag "Binomial Confidence Intervals for Rare Events: Importance of Defining Margin of Error Relative to Magnitude of Proportion" von Owen McGrath und Kevin Burke. Claude sollte auf Basis des korrekten Links die passende juristische Zitierform liefern.
Obwohl Claude den richtigen Publikationstitel, das Jahr und den Link korrekt wiedergab, enthielt die generierte Zitation dennoch einen unzutreffenden Titel und falsche Autorennamen. Zusätzlich traten laut Anthropic weitere Formulierungsfehler auf, die während des Formatierungsprozesses mit Claude in die Fußnote eingeflossen seien. Eine vollständige Liste der fehlerhaften Zitate wurde nicht öffentlich gemacht.
Richterin verlangt Erklärung
Nachdem die Anwälte der Musikverlage die Nutzung der fehlerhaften Zitate öffentlich gemacht hatten, forderte Richterin Susan van Keulen eine Antwort von Anthropic. Das Unternehmen erklärte, es handle sich um einen "ehrlichen Zitierfehler und keine Erfindung einer Autorität", da der zugrundeliegende Artikel existiere und die Aussage von Chen stütze. Eine bewusste Täuschung wird von Anthropic zurückgewiesen.
Dennoch musste der zuständige Anwalt im Namen des Unternehmens eine formelle Entschuldigung für die von Claude generierten Fehler einreichen.
KI-News ohne Hype
Von Menschen kuratiert.
- Mehr als 20 Prozent Launch-Rabatt.
- Lesen ohne Ablenkung – keine Google-Werbebanner.
- Zugang zum Kommentarsystem und Austausch mit der Community.
- Wöchentlicher KI-Newsletter.
- 6× jährlich: „KI Radar“ – Deep-Dives zu den wichtigsten KI-Themen.
- Bis zu 25 % Rabatt auf KI Pro Online-Events.
- Zugang zum kompletten Archiv der letzten zehn Jahre.
- Die neuesten KI‑Infos von The Decoder – klar und auf den Punkt.