Inhalt
summary Zusammenfassung

In einem Sondervotum hat der US-Richter Kevin Newsom führende Chatbots wie ChatGPT eingesetzt, um die "gewöhnliche Bedeutung" eines umstrittenen Rechtsbegriffs zu ermitteln.

Anzeige

In einem Urteil des US-Berufungsgerichts für den 11. Gerichtskreis ging es um den Fall von Joseph Deleon, der wegen bewaffneten Raubüberfalls verurteilt wurde. Eine zentrale Streitfrage war, ob Deleons Handlung, während des Überfalls eine Waffe auf den Kassierer zu richten, als "physische Einschränkung" (physically restrained) gewertet werden kann. Die Mehrheit des Gerichts bejahte dies und bestätigte damit eine Verschärfung der Strafe.

Richter Kevin Newsom stimmte zwar dem Urteil zu, da es im Einklang mit Präzedenzfällen steht. Er argumentiert jedoch, dass bei einer textgetreuen Auslegung eine engere Definition von "physischer Einschränkung" angebracht wäre. Die Unterscheidung ist bedeutsam, da sie sich direkt auf das Strafmaß auswirken kann.

Kennen Chatbots die gewöhnlichste Bedeutung eines Begriffs?

Um die "gewöhnliche Bedeutung" des Begriffs zu ermitteln, wandte sich Newsom an eine ungewöhnliche Quelle: KI-gestützte Sprachmodelle (LLMs) wie ChatGPT und Claude. In einem Experiment stellte er den drei führenden LLMs - GPT, Claude und Gemini - zehnmal die Frage: "Was ist die gewöhnliche Bedeutung von 'physisch eingeschränkt'?"

Anzeige
Anzeige

Wie Newsom in seinem Votum erläutert, erhielt er dabei zwar leicht variierende Antworten in Struktur und Formulierung, aber mit einem gemeinsamen Kern: "Die LLMs definierten 'physisch eingeschränkt' durchweg als Anwendung greifbarer Gewalt, entweder durch direkten Körperkontakt oder ein Gerät. Dies entsprach den Ergebnissen der herkömmlichen wörterbuchbasierten Auslegungsmethode."

Zunächst sei er überrascht über die subtilen Unterschiede in den Antworten gewesen, schreibt Newsom. Bei näherer Betrachtung sei er jedoch zu dem Schluss gekommen, dass eine gewisse Variation zu erwarten und sogar ermutigend sei, da sie widerspiegle, wie Menschen Begriffe im Alltag verwenden: "Die Sprache ist eine organische Sache und kann, wie die meisten organischen Dinge, ein wenig unordentlich sein."

Newsom sieht LLMs als wertvolle Ergänzung, nicht als Ersatz für traditionelle Methoden. Sie könnten Richtern helfen, die "gewöhnliche Bedeutung" komplexer Begriffe zu entschlüsseln. LLMs seien zwar nicht perfekt und es gebe noch Herausforderungen, aber es wäre kurzsichtig, sie zu ignorieren. Gerade Varianz zwischen Antworten könnte LLMs zu einem genaueren Prädiktor für gewöhnliche Wortbedeutungen machen, da es widerspiegele, wie Menschen Sprache im Alltag verwenden.

Gleichzeitig betont Newsom, dass KI die Rechtsfindung nicht automatisieren kann: "LLMs können die Gesetzesauslegung nicht mit wissenschaftlicher Gewissheit versehen. Niemand sollte meine Ausführungen so verstehen, dass wir traditionelle Auslegungsmethoden aufgeben sollten. Aber ich glaube, dass KI-Modelle eine wertvolle ergänzende Rolle spielen können, wenn es darum geht, die gewöhnliche Bedeutung zu triangulieren."

Anzeige
Anzeige
Community beitreten
Kommt in die DECODER-Community bei Discord,Reddit, Twitter und Co. - wir freuen uns auf euch!
Unterstütze unsere unabhängige, frei zugängliche Berichterstattung. Jeder Betrag hilft und sichert unsere Zukunft. Jetzt unterstützen:
Banküberweisung
Zusammenfassung
  • Im Rahmen eines Sondervotums hat der US-Richter Kevin Newsom führende Chatbots wie ChatGPT eingesetzt, um die "gewöhnliche Bedeutung" des umstrittenen Rechtsbegriffs "physische Einschränkung" zu ermitteln.
  • Newsom stellte den drei führenden Sprachmodellen GPT, Claude und Gemini zehnmal die Frage nach der Bedeutung von "physisch eingeschränkt". Die Antworten definierten den Begriff durchweg als Anwendung greifbarer Gewalt durch direkten Körperkontakt oder ein Gerät, was den Ergebnissen herkömmlicher wörterbuchbasierter Auslegungsmethoden entsprach.
  • Newsom sieht KI-Sprachmodelle als wertvolle Ergänzung, nicht als Ersatz für traditionelle Methoden. Sie könnten Richtern helfen, die "gewöhnliche Bedeutung" komplexer Begriffe zu entschlüsseln, ohne die Rechtsfindung zu automatisieren. Varianz zwischen den Antworten könnte die Modelle sogar zu einem genaueren Prädiktor für Wortbedeutungen im Alltag machen.
Quellen
Online-Journalist Matthias ist Gründer und Herausgeber von THE DECODER. Er ist davon überzeugt, dass Künstliche Intelligenz die Beziehung zwischen Mensch und Computer grundlegend verändern wird.
Community beitreten
Kommt in die DECODER-Community bei Discord,Reddit, Twitter und Co. - wir freuen uns auf euch!