Inhalt
summary Zusammenfassung
Update
  • Urteil ergänzt

Update vom 23. Juni 2023:

Das Urteil ist da: Die am ChatGPT-Fail beteiligten Anwälte Peter LoDuca und Steven A. Schwartz sowie ihre Anwaltskanzlei Levidow, Levidow & Oberman P.C. haben nach Ansicht des New Yorker Richters Kevin Castel ihre Verantwortung vernachlässigt, indem sie zunächst die falschen Fälle eingereicht und diese dann auf Nachfrage verteidigt haben.

Technologischer Fortschritt ist alltäglich, und es ist nichts Falsches daran, ein zuverlässiges KI-Tool zur Unterstützung einzusetzen. Aber die bestehenden Regeln verlangen von den Anwälten eine Kontrollfunktion, um sicherzustellen, dass ihre Eingaben korrekt sind.

Aus dem Gerichtsurteil

Die Strafe ist eher harmlos: Die beiden Anwälte müssen 5.000 US-Dollar an das Gericht zahlen, ihre Mandanten über den Fehltritt informieren, die aufgrund der medialen Wellen ohnehin schon Bescheid wissen dürften, und die echten Richter informieren, die von ChatGPT in falschen Fällen zitiert wurden. Das Gericht selbst verzichtet auf eine Entschuldigung, da "eine erzwungene Entschuldigung keine aufrichtige Entschuldigung ist".

Ursprünglicher Artikel vom 28. Mai 2023:

Anzeige
Anzeige

Anwalt nutzt ChatGPT für Anklage - und muss jetzt selbst vor Gericht

Seit dem Aufkommen großer Sprachmodelle warnen Medien und Expert:innen davor, dass die generierten Inhalte falsch sein können. Diese Botschaft ist nicht überall angekommen.

Ein New Yorker Anwalt zitierte in einer mit ChatGPT generierten Klagebegründung Referenzfälle, die es nicht gibt. In dem zu verhandelnden Fall verklagt ein Mann eine Fluggesellschaft wegen angeblicher Körperverletzung, weil er während eines Fluges von einem Servicewagen gegen das Knie gestoßen wurde.

Die Fluggesellschaft wollte die Klage abweisen. Das Anwaltsteam des Klägers suchte mit ChatGPT nach Argumenten für die Position ihres Mandanten.

Die vom Anwaltsteam eingereichte Anklageschrift zitierte Beispiele aus nicht existierenden, von ChatGPT ausgedachten Präzedenzfällen mit ausführlichen und korrekt erscheinenden Zitaten wie "Varghese v. China Southern Airlines Co Ltd, 925 F.3d 1339 (11th Cir. 2019)". Das Dokument stammt von Anfang März, wurde also mit GPT-3.5 generiert, das in puncto Faktentreue noch weniger zuverlässig ist als GPT-4.

Das Gericht forderte Kopien der Fälle an, woraufhin das Anwaltsteam ChatGPT erneut um Details zu den Fällen bat. ChatGPT ließ sich nicht lange bitten und erfand zahlreiche Details zu den fiktiven Fällen, die das Anwaltsteam in Form von Screenshots - einschließlich der ChatGPT-Oberfläche auf einem Smartphone (!) - der Anklageschrift beifügte.

Empfehlung

Die Anwälte der Fluggesellschaft bestritten weiterhin die Echtheit der Fälle, woraufhin der Richter das Anwaltsteam des Klägers erneut um eine Stellungnahme bat.

Der Gerichtshof sieht sich mit einem noch nie dagewesenen Sachverhalt konfrontiert. Ein Schriftsatz des Anwalts des Klägers gegen einen Antrag auf Klageabweisung ist voll von Zitaten nicht existierender Fälle. [...] Sechs der vorgelegten Fälle scheinen gefälschte Gerichtsentscheidungen mit gefälschten Zitaten und gefälschten internen Verweisen zu sein.

Order to show cause

In einer anschließenden eidesstattlichen Erklärung räumt der für die Recherche verantwortliche Anwalt Steven A. Schwartz ein, ChatGPT erstmals für die Recherche verwendet zu haben, ohne sich bewusst gewesen zu sein, dass das System falsche Inhalte generieren könne. ChatGPT habe auf Nachfrage die Richtigkeit der Quellen "versichert".

Anwalt bedauert ChatGPT-Einsatz

Schwartz ist seit mehr als 30 Jahren im Geschäft. In einer Erklärung entschuldigt er sich für den Einsatz des Chatbots. Ihm sei nicht bewusst gewesen, dass die generierten Informationen falsch sein könnten. Er wolle KI in Zukunft nicht mehr als juristisches Recherchewerkzeug einsetzen, ohne die generierten Informationen zu überprüfen.

OpenAIs Chatbot machte es Schwartz jedoch leicht, die Lügen zu glauben: Screenshots zeigen Gespräche zwischen Schwartz und ChatGPT, in denen der Anwalt ChatGPT nach Quellen für zitierte Urteile fragt und das System ihm eine "doppelte Überprüfung" in juristischen Datenbanken wie LexisNexis und Westlaw verspricht.

Anzeige
Community beitreten
Kommt in die DECODER-Community bei Discord,Reddit, Twitter und Co. - wir freuen uns auf euch!
Anzeige
Community beitreten
Kommt in die DECODER-Community bei Discord,Reddit, Twitter und Co. - wir freuen uns auf euch!

Das Anwaltsteam muss sich am 8. Juni vor Gericht rechtfertigen, weshalb keine Disziplinarstrafe gegen sie verhängt werden sollte.

Möglicherweise wird die Suche nach Präzedenzfällen mit ChatGPT selbst zu einem Präzedenzfall, weshalb ChatGPT nicht oder nicht ohne Authentifizierung für Recherchen verwendet werden sollte - und eine Warnung an die Industrie.

Unterstütze unsere unabhängige, frei zugängliche Berichterstattung. Jeder Betrag hilft und sichert unsere Zukunft. Jetzt unterstützen:
Banküberweisung
Zusammenfassung
  • Eine Anwaltskanzlei hat mit ChatGPT eine Anklageschrift erstellt. Darin zitierte ChatGPT erfundene Referenzfälle.
  • ChatGPT versicherte auch auf Nachfrage die Authentizität der Daten, die angeblich aus bekannten juristischen Datenbanken stammten.
  • Der für die Recherche verantwortliche Anwalt gibt an, ChatGPT zum ersten Mal verwendet zu haben. Er sei sich nicht bewusst gewesen, dass ChatGPT Informationen erfinden könne.
  • Die beiden beteiligten Anwälte müssen jeweils 5.000 US-Dollar Strafe an das Gericht zahlen, ihre Mandanten sowie die von ChatGPT in den Fake-Fällen zitierten Richter informieren.
Online-Journalist Matthias ist Gründer und Herausgeber von THE DECODER. Er ist davon überzeugt, dass Künstliche Intelligenz die Beziehung zwischen Mensch und Computer grundlegend verändern wird.
Community beitreten
Kommt in die DECODER-Community bei Discord,Reddit, Twitter und Co. - wir freuen uns auf euch!