- Urteil ergänzt
Update vom 23. Juni 2023:
Das Urteil ist da: Die am ChatGPT-Fail beteiligten Anwälte Peter LoDuca und Steven A. Schwartz sowie ihre Anwaltskanzlei Levidow, Levidow & Oberman P.C. haben nach Ansicht des New Yorker Richters Kevin Castel ihre Verantwortung vernachlässigt, indem sie zunächst die falschen Fälle eingereicht und diese dann auf Nachfrage verteidigt haben.
Technologischer Fortschritt ist alltäglich, und es ist nichts Falsches daran, ein zuverlässiges KI-Tool zur Unterstützung einzusetzen. Aber die bestehenden Regeln verlangen von den Anwälten eine Kontrollfunktion, um sicherzustellen, dass ihre Eingaben korrekt sind.
Die Strafe ist eher harmlos: Die beiden Anwälte müssen 5.000 US-Dollar an das Gericht zahlen, ihre Mandanten über den Fehltritt informieren, die aufgrund der medialen Wellen ohnehin schon Bescheid wissen dürften, und die echten Richter informieren, die von ChatGPT in falschen Fällen zitiert wurden. Das Gericht selbst verzichtet auf eine Entschuldigung, da "eine erzwungene Entschuldigung keine aufrichtige Entschuldigung ist".
Ursprünglicher Artikel vom 28. Mai 2023:
Anwalt nutzt ChatGPT für Anklage - und muss jetzt selbst vor Gericht
Seit dem Aufkommen großer Sprachmodelle warnen Medien und Expert:innen davor, dass die generierten Inhalte falsch sein können. Diese Botschaft ist nicht überall angekommen.
Ein New Yorker Anwalt zitierte in einer mit ChatGPT generierten Klagebegründung Referenzfälle, die es nicht gibt. In dem zu verhandelnden Fall verklagt ein Mann eine Fluggesellschaft wegen angeblicher Körperverletzung, weil er während eines Fluges von einem Servicewagen gegen das Knie gestoßen wurde.
Die Fluggesellschaft wollte die Klage abweisen. Das Anwaltsteam des Klägers suchte mit ChatGPT nach Argumenten für die Position ihres Mandanten.
Die vom Anwaltsteam eingereichte Anklageschrift zitierte Beispiele aus nicht existierenden, von ChatGPT ausgedachten Präzedenzfällen mit ausführlichen und korrekt erscheinenden Zitaten wie "Varghese v. China Southern Airlines Co Ltd, 925 F.3d 1339 (11th Cir. 2019)". Das Dokument stammt von Anfang März, wurde also mit GPT-3.5 generiert, das in puncto Faktentreue noch weniger zuverlässig ist als GPT-4.
Das Gericht forderte Kopien der Fälle an, woraufhin das Anwaltsteam ChatGPT erneut um Details zu den Fällen bat. ChatGPT ließ sich nicht lange bitten und erfand zahlreiche Details zu den fiktiven Fällen, die das Anwaltsteam in Form von Screenshots - einschließlich der ChatGPT-Oberfläche auf einem Smartphone (!) - der Anklageschrift beifügte.
Die Anwälte der Fluggesellschaft bestritten weiterhin die Echtheit der Fälle, woraufhin der Richter das Anwaltsteam des Klägers erneut um eine Stellungnahme bat.
Der Gerichtshof sieht sich mit einem noch nie dagewesenen Sachverhalt konfrontiert. Ein Schriftsatz des Anwalts des Klägers gegen einen Antrag auf Klageabweisung ist voll von Zitaten nicht existierender Fälle. [...] Sechs der vorgelegten Fälle scheinen gefälschte Gerichtsentscheidungen mit gefälschten Zitaten und gefälschten internen Verweisen zu sein.
In einer anschließenden eidesstattlichen Erklärung räumt der für die Recherche verantwortliche Anwalt Steven A. Schwartz ein, ChatGPT erstmals für die Recherche verwendet zu haben, ohne sich bewusst gewesen zu sein, dass das System falsche Inhalte generieren könne. ChatGPT habe auf Nachfrage die Richtigkeit der Quellen "versichert".
Anwalt bedauert ChatGPT-Einsatz
Schwartz ist seit mehr als 30 Jahren im Geschäft. In einer Erklärung entschuldigt er sich für den Einsatz des Chatbots. Ihm sei nicht bewusst gewesen, dass die generierten Informationen falsch sein könnten. Er wolle KI in Zukunft nicht mehr als juristisches Recherchewerkzeug einsetzen, ohne die generierten Informationen zu überprüfen.
OpenAIs Chatbot machte es Schwartz jedoch leicht, die Lügen zu glauben: Screenshots zeigen Gespräche zwischen Schwartz und ChatGPT, in denen der Anwalt ChatGPT nach Quellen für zitierte Urteile fragt und das System ihm eine "doppelte Überprüfung" in juristischen Datenbanken wie LexisNexis und Westlaw verspricht.
Das Anwaltsteam muss sich am 8. Juni vor Gericht rechtfertigen, weshalb keine Disziplinarstrafe gegen sie verhängt werden sollte.
Möglicherweise wird die Suche nach Präzedenzfällen mit ChatGPT selbst zu einem Präzedenzfall, weshalb ChatGPT nicht oder nicht ohne Authentifizierung für Recherchen verwendet werden sollte - und eine Warnung an die Industrie.