Im Urheberrechtsstreit mit Musikverlagen musste sich das KI-Unternehmen Anthropic für eine fehlerhafte Quellenangabe entschuldigen. Die halluzinierte Quelle stammt von der firmeneigenen KI Claude.
Anthropic hat in einem laufenden Urheberrechtsprozess eingeräumt, dass der firmeneigene Chatbot Claude eine erfundene Quelle generierte, die in einem Gutachten als Beleg diente. Laut einem bei einem kalifornischen Bezirksgericht eingereichten Dokument habe Claude "einen unzutreffenden Titel und unzutreffende Autoren" erfunden. Wie aus der Gerichtsakte hervorgeht, wurde der Fehler bei einer manuellen Überprüfung nicht entdeckt – ebenso wenig wie mehrere weitere durch Claude verursachte Zitierfehler.
Die falsche Quelle fand sich in der Aussage von Olivia Chen, einer Anthropic-Mitarbeiterin, die als Expertin im Verfahren auftrat. Der Fall ist Teil eines Rechtsstreits zwischen Anthropic und mehreren Musikverlagen, darunter Universal Music Group, die dem Unternehmen Urheberrechtsverletzungen durch generative KI-Systeme vorwerfen.
Fehlerhafte Fußnote entstand durch KI-Formatierung
Laut Gerichtsunterlagen wurde Claude von Anthropics Anwälten explizit dazu verwendet, eine rechtlich korrekte Zitierweise für einen Artikel aus der Fachzeitschrift The American Statistician zu generieren. Dabei handelte es sich um den Beitrag "Binomial Confidence Intervals for Rare Events: Importance of Defining Margin of Error Relative to Magnitude of Proportion" von Owen McGrath und Kevin Burke. Claude sollte auf Basis des korrekten Links die passende juristische Zitierform liefern.
Obwohl Claude den richtigen Publikationstitel, das Jahr und den Link korrekt wiedergab, enthielt die generierte Zitation dennoch einen unzutreffenden Titel und falsche Autorennamen. Zusätzlich traten laut Anthropic weitere Formulierungsfehler auf, die während des Formatierungsprozesses mit Claude in die Fußnote eingeflossen seien. Eine vollständige Liste der fehlerhaften Zitate wurde nicht öffentlich gemacht.
Richterin verlangt Erklärung
Nachdem die Anwälte der Musikverlage die Nutzung der fehlerhaften Zitate öffentlich gemacht hatten, forderte Richterin Susan van Keulen eine Antwort von Anthropic. Das Unternehmen erklärte, es handle sich um einen "ehrlichen Zitierfehler und keine Erfindung einer Autorität", da der zugrundeliegende Artikel existiere und die Aussage von Chen stütze. Eine bewusste Täuschung wird von Anthropic zurückgewiesen.
Dennoch musste der zuständige Anwalt im Namen des Unternehmens eine formelle Entschuldigung für die von Claude generierten Fehler einreichen.