In seinem lesenswerten Jahresbericht setzt sich der Oberste Richter der USA, John Roberts, mit der Rolle der Technologie und insbesondere der Zukunft der KI in der Justiz auseinander.
Roberts prognostiziert, dass menschliche Richter zwar weiterhin benötigt werden, KI jedoch die Arbeit der Justiz, speziell auf der Ebene der Gerichtsverfahren, erheblich beeinflussen wird.
Roberts versichert, dass Ausschüsse innerhalb der Bundesgerichtsbarkeit den Einsatz von KI in Rechtsstreitigkeiten vor Bundesgerichten untersuchen würden.
KI kommt in der Justiz an, ersetzt aber keine Richter
Roberts weist die Vorstellung zurück, dass Richter durch KI überflüssig werden könnten, da es bei juristischen Entscheidungen oft Grauzonen gebe, die weiterhin ein menschliches Urteil erforderten.
Er räumt jedoch ein, dass KI das Potenzial habe, den Zugang zu wichtigen Informationen sowohl für Juristen als auch für Laien drastisch zu verbessern. KI könne somit einen breiteren Zugang zum Recht ermöglichen.
Der Einsatz von KI erfordere jedoch "Vorsicht und Bescheidenheit", da sonst die Gefahr bestehe, dass die Privatsphäre verletzt und das Recht entmenschlicht werde.
Ich sage voraus, dass es menschliche Richter noch eine Weile geben wird. Aber mit der gleichen Zuversicht sage ich voraus, dass die richterliche Arbeit - vor allem auf der Ebene der Gerichtsverhandlung - erheblich von der KI beeinflusst werden wird. Diese Veränderungen werden sich nicht nur auf die Art und Weise auswirken, wie Richter ihre Arbeit erledigen, sondern auch auf die Rolle, die KI in den ihnen vorgelegten Fällen spielt.
John Roberts
Erste KI-Fails vor Gericht
KI sorgte 2023 für Aufsehen in der Rechtswelt, als ChatGPT erfolgreich Jura-Prüfungen bestand oder im Vertragsrecht besser abschnitt als Anwälte.
KI-Tools für die juristische Recherche können jedoch auch riskant sein, wie das jüngste Beispiel von Michael Cohen, dem ehemaligen Anwalt von Ex-Präsident Donald Trump, zeigt, der mithilfe von Google Bard falsche Fallzitate generierte.
Auch der Anwalt Zachariah C. Crabill aus Colorado und die Anwälte Peter LoDuca und Steven A. Schwartz von der Anwaltskanzlei Levidow wurden zu Strafen und Auflagen verurteilt, weil sie ChatGPT für ihre Arbeit nutzten und falsche Informationen und Fallzitate generierten.
Richter John Roberts erwähnt solche Fälle in seinem Jahresbericht und warnt ausdrücklich vor "sogenannten Halluzinationen" beim Einsatz von KI. Die Generierung von Zitaten aus nicht existierenden Fällen sei "immer eine schlechte Idee".