Inhalt
summary Zusammenfassung

Künstliche Intelligenz hat viele Bereiche revolutioniert, und nun dringt sie auch in das Rechtssystem ein - allerdings nicht immer auf eine gute Art. Das von der KI erfundene "Fake Law" wird in Rechtsstreitigkeiten eingesetzt und wirft ernste ethische und rechtliche Fragen auf, wie unsere Gastautoren darlegen.

Wir haben Deepfake gesehen, eindeutige Bilder von Prominenten, die von künstlicher Intelligenz (KI) erstellt wurden. Auch beim Musikmachen, bei fahrerlosen Rennwagen und der Verbreitung von Falschinformationen hat die KI ihre Finger im Spiel.

Es ist daher kaum überraschend, dass KI auch einen starken Einfluss auf unsere Rechtssysteme hat.

Es ist allgemein bekannt, dass Gerichte Streitfälle auf der Grundlage von Gesetzen entscheiden müssen, die von Anwält:innen als Teil des Falles eines Klienten dem Gericht vorgelegt werden. Es ist daher höchst bedenklich, dass von KI erfundene und gefälschte Gesetze in Rechtsstreitigkeiten verwendet werden.

Anzeige
Anzeige

Das wirft nicht nur Fragen der Legalität und Ethik auf, sondern droht auch den Glauben und das Vertrauen in globale Rechtssysteme zu untergraben.

Wie kommen gefälschte Gesetze zustande?

Generative KI ist zweifellos ein mächtiges Werkzeug mit einem transformativen Potenzial für die Gesellschaft, einschließlich vieler Aspekte des Rechtssystems. Ihr Einsatz ist jedoch mit Verantwortung und Risiken verbunden.

Rechtsanwälte sind darauf geschult, ihr Wissen und ihre Erfahrung sorgfältig einzusetzen, und sind im Allgemeinen nicht sehr risikofreudig. Dennoch wurden einige unvorsichtige Anwälte (und selbst vertretene Prozessparteien) von der KI überrumpelt.

KI-Modelle werden mit großen Datensätzen trainiert. Auf Benutzeranfrage können sie neue Inhalte (sowohl Text als auch audiovisuelle Inhalte) erstellen.

Auf diese Weise erzeugte Inhalte können sehr überzeugend, aber auch ungenau sein. Das liegt daran, dass das KI-Modell versucht, die Lücken zu füllen, wenn die Trainingsdaten unzureichend oder fehlerhaft sind, und wird allgemein als"Halluzination" bezeichnet.

Empfehlung

In manchen Kontexten ist die generative KI kein Problem. Sie kann sogar als Beispiel für Kreativität angesehen werden.

Wenn KI jedoch halluziniert oder ungenaue Inhalte erstellt, die dann in Rechtsverfahren verwendet werden, ist das problematisch - insbesondere in Verbindung mit dem Zeitdruck, unter dem Anwälte stehen, und dem mangelnden Zugang vieler Menschen zu Rechtsdienstleistungen.

Diese starke Kombination kann zu Nachlässigkeit und Abkürzungen bei der juristischen Recherche und der Vorbereitung von Dokumenten führen, was zu Reputationsproblemen für die Anwaltschaft und zu einem Vertrauensverlust der Öffentlichkeit in die Rechtspflege führen kann.

Es geschieht bereits

Der bekannteste generative KI-"Fake-Fall" ist der US-Fall Mata gegen Avianca aus dem Jahr 2023, bei dem Anwälte eines New Yorker Gerichts einen Schriftsatz mit gefälschten Auszügen und Fallzitaten vorlegten. Der Schriftsatz wurde mit ChatGPT recherchiert.

Anzeige
Community beitreten
Kommt in die DECODER-Community bei Discord,Reddit, Twitter und Co. - wir freuen uns auf euch!
Anzeige
Community beitreten
Kommt in die DECODER-Community bei Discord,Reddit, Twitter und Co. - wir freuen uns auf euch!

Die Anwälte wussten nicht, dass ChatGPT Halluzinationen auslösen kann und versäumten es, die Fälle auf ihre Echtheit zu überprüfen. Die Folgen waren verheerend. Als der Irrtum aufgedeckt wurde, wies das Gericht den Fall ihres Mandanten ab, bestrafte die Anwälte wegen bösgläubigen Handelns, verhängte eine Geldstrafe gegen sie und ihre Kanzlei und stellte ihre Handlungen öffentlich zur Diskussion.

Trotz der negativen Publicity tauchen immer wieder Beispiele für gefälschte Fälle auf. Michael Cohen, der ehemalige Anwalt von Donald Trump, gab seinem eigenen Anwalt Fälle, die von Google Bard, einem anderen generativen KI-Chatbot, generiert worden waren. Er dachte, sie seien echt (was sie nicht waren) und sein Anwalt würde sie überprüfen (was er nicht tat). Sein Anwalt fügte die Fälle in einen Schriftsatz ein, der beim US-Bundesgericht eingereicht wurde.

Auch in Kanada und im Vereinigten Königreich sind in jüngster Zeit gefälschte Fälle aufgetaucht.

Wenn sich dieser Trend ungebremst fortsetzt, wie können wir dann sicherstellen, dass der sorglose Umgang mit generativer KI nicht das Vertrauen der Öffentlichkeit in das Rechtssystem untergräbt? Wenn Anwältinnen und Anwälte bei der Nutzung dieser Werkzeuge die nötige Sorgfalt vermissen lassen, kann das die Gerichte in die Irre führen und überlasten, den Interessen der Mandanten schaden und ganz allgemein die Rechtsstaatlichkeit untergraben.

Was wird dagegen unternommen?

Weltweit haben Rechtsaufsichtsbehörden und Gerichte auf unterschiedliche Weise reagiert.

Mehrere Anwaltskammern und Gerichte in den US-Bundesstaaten haben Leitlinien, Stellungnahmen oder Anordnungen zum Einsatz generativer KI herausgegeben, die von einer verantwortungsvollen Akzeptanz bis zu einem vollständigen Verbot reichen.

Auch die Anwaltskammern im Vereinigten Königreich und in British Columbia sowie neuseeländische Gerichte haben Leitlinien entwickelt.

In Australien hat die NSW Bar Association einen Leitfaden zur generativen KI für Anwälte erstellt. Die Law Society of NSW und das Law Institute of Victoria haben Artikel zum verantwortungsvollen Umgang mit KI in Übereinstimmung mit den Verhaltensregeln für Anwälte veröffentlicht.

Viele Anwälte und Richter, wie auch die Öffentlichkeit, haben ein gewisses Verständnis von generativer KI und können sowohl ihre Grenzen als auch ihre Vorteile erkennen. Aber es gibt auch andere, die sich dessen vielleicht nicht so bewusst sind. Ein Leitfaden ist zweifellos hilfreich.

Aber ein verbindlicher Ansatz ist erforderlich. Rechtsanwälte, die generative KI-Tools einsetzen, dürfen diese nicht als Ersatz für ihr eigenes Urteilsvermögen und ihre eigene Sorgfalt betrachten und müssen die Richtigkeit und Zuverlässigkeit der erhaltenen Informationen überprüfen.

In Australien sollten Gerichte Richtlinien oder Regeln erlassen, die die Erwartungen an den Einsatz generativer KI in Rechtsstreitigkeiten festlegen. Gerichtsregeln können auch den Prozessparteien als Orientierungshilfe dienen und würden der Öffentlichkeit signalisieren, dass sich unsere Gerichte des Problems bewusst sind und es angehen.

Auch die Anwaltschaft könnte formale Leitlinien verabschieden, um den verantwortungsvollen Einsatz von KI durch Anwälte zu fördern. Zumindest sollte Technologiekompetenz eine Anforderung in der juristischen Ausbildung in Australien werden.

Die Festlegung klarer Anforderungen für den verantwortungsvollen und ethischen Einsatz generativer KI durch australische Rechtsanwälte wird eine angemessene Anwendung fördern und das Vertrauen der Öffentlichkeit in unsere Rechtsanwälte, unsere Gerichte und das gesamte Rechtssystem in Australien stärken.

The Conversation
Unterstütze unsere unabhängige, frei zugängliche Berichterstattung. Jeder Betrag hilft und sichert unsere Zukunft. Jetzt unterstützen:
Banküberweisung
Zusammenfassung
  • KI-erzeugte "Fake-Gesetze" werden bereits in Rechtsstreiten eingesetzt, werfen damit Fragen der Legalität und Ethik auf und untergraben das Vertrauen in die globalen Rechtssysteme.
  • Der US-Fall Mata gegen Avianca aus dem Jahr 2023 ist ein Paradebeispiel für einen generativen KI-"Fake Case", bei dem Anwälte einem New Yorker Gericht einen Schriftsatz mit gefälschten Auszügen und Zitaten aus Gerichtsurteilen vorlegten, die mit ChatGPT recherchiert worden waren. Das Gericht wies den Fall ab und bestrafte die Anwälte.
  • Rechtsaufsichtsbehörden und Gerichte auf der ganzen Welt haben mit verschiedenen Maßnahmen reagiert, die von der Herausgabe von Richtlinien bis zu vollständigen Verboten reichen.
Michael Legg und Vicki McNamara

Michael Legg ist Professor für Recht an der UNSW Sydney
Vicki McNamara ist Senior Research Associate, Centre for the Future of the Legal Profession, UNSW Sydney

Community beitreten
Kommt in die DECODER-Community bei Discord,Reddit, Twitter und Co. - wir freuen uns auf euch!