Inhalt
summary Zusammenfassung

Im Urheberrechtsstreit mit Musikverlagen musste sich das KI-Unternehmen Anthropic für eine fehlerhafte Quellenangabe entschuldigen. Die halluzinierte Quelle stammt von der firmeneigenen KI Claude.

Anzeige

Anthropic hat in einem laufenden Urheberrechtsprozess eingeräumt, dass der firmeneigene Chatbot Claude eine erfundene Quelle generierte, die in einem Gutachten als Beleg diente. Laut einem bei einem kalifornischen Bezirksgericht eingereichten Dokument habe Claude "einen unzutreffenden Titel und unzutreffende Autoren" erfunden. Wie aus der Gerichtsakte hervorgeht, wurde der Fehler bei einer manuellen Überprüfung nicht entdeckt – ebenso wenig wie mehrere weitere durch Claude verursachte Zitierfehler.

Die falsche Quelle fand sich in der Aussage von Olivia Chen, einer Anthropic-Mitarbeiterin, die als Expertin im Verfahren auftrat. Der Fall ist Teil eines Rechtsstreits zwischen Anthropic und mehreren Musikverlagen, darunter Universal Music Group, die dem Unternehmen Urheberrechtsverletzungen durch generative KI-Systeme vorwerfen.

Fehlerhafte Fußnote entstand durch KI-Formatierung

Laut Gerichtsunterlagen wurde Claude von Anthropics Anwälten explizit dazu verwendet, eine rechtlich korrekte Zitierweise für einen Artikel aus der Fachzeitschrift The American Statistician zu generieren. Dabei handelte es sich um den Beitrag "Binomial Confidence Intervals for Rare Events: Importance of Defining Margin of Error Relative to Magnitude of Proportion" von Owen McGrath und Kevin Burke. Claude sollte auf Basis des korrekten Links die passende juristische Zitierform liefern.

Anzeige
Anzeige

Obwohl Claude den richtigen Publikationstitel, das Jahr und den Link korrekt wiedergab, enthielt die generierte Zitation dennoch einen unzutreffenden Titel und falsche Autorennamen. Zusätzlich traten laut Anthropic weitere Formulierungsfehler auf, die während des Formatierungsprozesses mit Claude in die Fußnote eingeflossen seien. Eine vollständige Liste der fehlerhaften Zitate wurde nicht öffentlich gemacht.

Richterin verlangt Erklärung

Nachdem die Anwälte der Musikverlage die Nutzung der fehlerhaften Zitate öffentlich gemacht hatten, forderte Richterin Susan van Keulen eine Antwort von Anthropic. Das Unternehmen erklärte, es handle sich um einen "ehrlichen Zitierfehler und keine Erfindung einer Autorität", da der zugrundeliegende Artikel existiere und die Aussage von Chen stütze. Eine bewusste Täuschung wird von Anthropic zurückgewiesen.

Dennoch musste der zuständige Anwalt im Namen des Unternehmens eine formelle Entschuldigung für die von Claude generierten Fehler einreichen.

Anzeige
Anzeige
Community beitreten
Kommt in die DECODER-Community bei Discord,Reddit, Twitter und Co. - wir freuen uns auf euch!
Unterstütze unsere unabhängige, frei zugängliche Berichterstattung. Jeder Betrag hilft und sichert unsere Zukunft. Jetzt unterstützen:
Banküberweisung
Zusammenfassung
  • Im Urheberrechtsprozess mit mehreren Musikverlagen räumt Anthropic ein, dass der hauseigene Chatbot Claude eine erfundene Quelle generierte, die in einer Zeugenaussage als Beleg diente und bei der Überprüfung unentdeckt blieb.
  • Claude wurde beauftragt, eine juristisch korrekte Zitierweise für einen Fachartikel zu erstellen, gab aber trotz korrektem Link und Titel falsche Autoren und einen unzutreffenden Titel an, ähnliche Fehler traten bei weiteren Zitaten auf.
  • Nach Bekanntwerden der fehlerhaften Zitate verlangte die Richterin eine Stellungnahme. Anthropic betont, es handele sich um einen unbeabsichtigten Fehler und entschuldigte sich offiziell für die von Claude verursachten Zitierfehler.
Quellen
Max ist leitender Redakteur bei THE DECODER. Als studierter Philosoph beschäftigt er sich mit dem Bewusstsein, KI und der Frage, ob Maschinen wirklich denken können oder nur so tun als ob.
Community beitreten
Kommt in die DECODER-Community bei Discord,Reddit, Twitter und Co. - wir freuen uns auf euch!