In einem Sondervotum hat der US-Richter Kevin Newsom führende Chatbots wie ChatGPT eingesetzt, um die "gewöhnliche Bedeutung" eines umstrittenen Rechtsbegriffs zu ermitteln.
In einem Urteil des US-Berufungsgerichts für den 11. Gerichtskreis ging es um den Fall von Joseph Deleon, der wegen bewaffneten Raubüberfalls verurteilt wurde. Eine zentrale Streitfrage war, ob Deleons Handlung, während des Überfalls eine Waffe auf den Kassierer zu richten, als "physische Einschränkung" (physically restrained) gewertet werden kann. Die Mehrheit des Gerichts bejahte dies und bestätigte damit eine Verschärfung der Strafe.
Richter Kevin Newsom stimmte zwar dem Urteil zu, da es im Einklang mit Präzedenzfällen steht. Er argumentiert jedoch, dass bei einer textgetreuen Auslegung eine engere Definition von "physischer Einschränkung" angebracht wäre. Die Unterscheidung ist bedeutsam, da sie sich direkt auf das Strafmaß auswirken kann.
Kennen Chatbots die gewöhnlichste Bedeutung eines Begriffs?
Um die "gewöhnliche Bedeutung" des Begriffs zu ermitteln, wandte sich Newsom an eine ungewöhnliche Quelle: KI-gestützte Sprachmodelle (LLMs) wie ChatGPT und Claude. In einem Experiment stellte er den drei führenden LLMs - GPT, Claude und Gemini - zehnmal die Frage: "Was ist die gewöhnliche Bedeutung von 'physisch eingeschränkt'?"
Wie Newsom in seinem Votum erläutert, erhielt er dabei zwar leicht variierende Antworten in Struktur und Formulierung, aber mit einem gemeinsamen Kern: "Die LLMs definierten 'physisch eingeschränkt' durchweg als Anwendung greifbarer Gewalt, entweder durch direkten Körperkontakt oder ein Gerät. Dies entsprach den Ergebnissen der herkömmlichen wörterbuchbasierten Auslegungsmethode."
Zunächst sei er überrascht über die subtilen Unterschiede in den Antworten gewesen, schreibt Newsom. Bei näherer Betrachtung sei er jedoch zu dem Schluss gekommen, dass eine gewisse Variation zu erwarten und sogar ermutigend sei, da sie widerspiegle, wie Menschen Begriffe im Alltag verwenden: "Die Sprache ist eine organische Sache und kann, wie die meisten organischen Dinge, ein wenig unordentlich sein."
Newsom sieht LLMs als wertvolle Ergänzung, nicht als Ersatz für traditionelle Methoden. Sie könnten Richtern helfen, die "gewöhnliche Bedeutung" komplexer Begriffe zu entschlüsseln. LLMs seien zwar nicht perfekt und es gebe noch Herausforderungen, aber es wäre kurzsichtig, sie zu ignorieren. Gerade Varianz zwischen Antworten könnte LLMs zu einem genaueren Prädiktor für gewöhnliche Wortbedeutungen machen, da es widerspiegele, wie Menschen Sprache im Alltag verwenden.
Gleichzeitig betont Newsom, dass KI die Rechtsfindung nicht automatisieren kann: "LLMs können die Gesetzesauslegung nicht mit wissenschaftlicher Gewissheit versehen. Niemand sollte meine Ausführungen so verstehen, dass wir traditionelle Auslegungsmethoden aufgeben sollten. Aber ich glaube, dass KI-Modelle eine wertvolle ergänzende Rolle spielen können, wenn es darum geht, die gewöhnliche Bedeutung zu triangulieren."