Inhalt
summary Zusammenfassung

Eine neue Studie der Stanford University zeigt, dass KI-Systeme für die juristische Recherche bei einer von sechs Anfragen falsche Informationen liefern. Die Forscher fordern öffentliche und transparente Standards für den Einsatz von KI im Rechtswesen.

Bis zu drei Viertel der Rechtsanwälte sollen den Einsatz von KI in ihrem Arbeitsalltag planen, etwa für Aufgaben wie das Aufsetzen von Verträgen oder die Unterstützung bei Rechtsgutachten.

Eine Preprint-Studie von Forschern des Stanford RegLab und des Stanford Institute for Human-Centered Artificial Intelligence (HAI) hat nun die Tools der beiden Anbieter LexisNexis und Thomson Reuters (Muttergesellschaft von Westlaw) getestet.

Die Studie zeigt, dass deren KI-Tools im Vergleich zu allgemeinen KI-Modellen wie GPT-4 zwar Fehler reduzieren, aber immer noch in mehr als 17 Prozent der Fälle - also bei jeder sechsten Anfrage - falsche Informationen liefern. Der LLM-Zugriff auf eine Wissensdatenbank (RAG) sei hierfür keine pauschale Abhilfe und zudem ein schwer zu lösendes Problem. Beide getesteten Tools nutzten diesen Mechanismus.

Anzeige
Anzeige
Die spezifischen Rechtssysteme halluzinieren zwar deutlich weniger als GPT-4, sind aber aus Sicht der Forscher nicht zuverlässig genug und nicht transparent.
Die spezifischen Rechtssysteme halluzinieren zwar deutlich weniger als GPT-4, sind aber aus Sicht der Forscher nicht zuverlässig genug, als dass sie einen Mehrwert stiften könnten, und nicht transparent. | Bild: Stanford HAI

Systeme können auf zwei Arten "halluzinieren": Entweder ist die Antwort einfach falsch, oder sie beschreibt das Recht korrekt, zitiert aber eine Quelle, die ihre Behauptungen nicht stützt.

Letzteres könne noch gefährlicher sein, da die Quelle, obwohl sie existiert, irrelevant oder widersprüchlich sein kann. Nutzer könnten "den Ergebnissen des Tools unangemessenes Vertrauen schenken, was zu falschen rechtlichen Urteilen und Schlussfolgerungen führen könnte", so die Forscher.

Zwei generierte Antworten, die zwar überzeugend klingen, laut der Forscher aber falsch sind. | Bild: Stanford HAI

Sie identifizieren mehrere Herausforderungen, die speziell für KI-Systeme im Rechtsbereich gelten. Erstens sei es generell schwierig, relevante Quellen zu identifizieren, da Recht nicht nur aus nachprüfbaren Fakten bestehe.

Zweitens könnten die abgerufenen Dokumente aufgrund von Unterschieden zwischen Rechtssystemen und Zeiträumen ungenau sein.

Drittens bestehe die Gefahr, dass KI-Systeme falschen Annahmen der Nutzerinnen und Nutzer zustimmen und diese sich in ihren falschen Annahmen bestätigt fühlen.

Empfehlung

Bisher sind mindestens zwei Fälle bekannt geworden, in denen Anwälte ohne Recherche falsche Informationen aus ChatGPT übernommen haben und dafür verurteilt wurden.

Dennoch prognostizierte der Oberste Richter der USA, John Roberts, Anfang des Jahres, dass menschliche Richter zwar weiterhin gebraucht würden, KI aber die Arbeit der Justiz, insbesondere bei Gerichtsverfahren, erheblich beeinflussen werde.

Forscher kritisieren intransparenten Einsatz generativer KI im Rechtswesen

Der Einsatz von KI in der Rechtswissenschaft sei alarmierend intransparent: Die untersuchten Werkzeuge böten keinen systematischen Zugang, veröffentlichten kaum Details zu ihren Modellen und berichteten keinerlei Evaluationsergebnisse.

Diese Intransparenz mache es für Juristen extrem schwierig, KI-Produkte zu erwerben und einzusetzen. Ohne Zugang zu Evaluationen und ohne Transparenz über die Funktionsweise der Tools könnten sie ihrer ethischen und beruflichen Verantwortung nicht gerecht werden.

Anzeige
Community beitreten
Kommt in die DECODER-Community bei Discord,Reddit, Twitter und Co. - wir freuen uns auf euch!
Anzeige
Community beitreten
Kommt in die DECODER-Community bei Discord,Reddit, Twitter und Co. - wir freuen uns auf euch!

Rechtsanwälte seien aufgrund der hohen Fehlerquote gezwungen, jede Aussage und jede Quelle, die die KI liefert, zu überprüfen. Dies würde die versprochenen Effizienzgewinne zunichtemachen.

Die Forscher betonen, dass LexisNexis und Thomson Reuters mit dieser Studie keineswegs an den Pranger gestellt werden sollen. Ihre Produkte seien bei Weitem nicht die einzigen KI-Tools für Juristen, die mehr Transparenz benötigten. Eine Vielzahl von Start-ups biete ähnliche Produkte an, die noch weniger zugänglich und damit noch schwieriger zu bewerten seien.

Nach derzeitigem Kenntnisstand seien Halluzinationen bei generativen juristischen KI-Systemen bisher nicht gelöst. Die Rechtspraxis sollte sich daher öffentlichen Benchmarks und rigorosen Bewertungen von KI-Werkzeugen zuwenden, so die Forscher.

Unterstütze unsere unabhängige, frei zugängliche Berichterstattung. Jeder Betrag hilft und sichert unsere Zukunft. Jetzt unterstützen:
Banküberweisung
Zusammenfassung
  • Eine Studie der Stanford University zeigt, dass KI-Systeme für juristische Recherchen bei jeder sechsten Anfrage falsche Informationen liefern, obwohl sie im Vergleich zu allgemeinen KI-Modellen Fehler reduzieren.
  • Die Forscher identifizieren mehrere Herausforderungen für den Einsatz von KI im Rechtsbereich, darunter die Schwierigkeit, relevante Quellen zu finden, Unterschiede in Rechtsordnungen und Zeiträumen sowie die Gefahr, dass KI falschen Annahmen der Nutzer zustimmt und sie so bestärkt.
  • Die Studie kritisiert die mangelnde Transparenz beim Einsatz von KI in der Rechtswissenschaft und fordert öffentliche Benchmarks und rigorose Bewertungen von KI-Werkzeugen, um Rechtsanwälten die Erfüllung ihrer ethischen und beruflichen Verantwortung zu ermöglichen.
Quellen
Online-Journalist Matthias ist Gründer und Herausgeber von THE DECODER. Er ist davon überzeugt, dass Künstliche Intelligenz die Beziehung zwischen Mensch und Computer grundlegend verändern wird.
Community beitreten
Kommt in die DECODER-Community bei Discord,Reddit, Twitter und Co. - wir freuen uns auf euch!