Inhalt
summary Zusammenfassung

Australische Gerichte werden immer häufiger mit Dokumenten konfrontiert, die offensichtlich mithilfe von KI-Systemen wie ChatGPT erstellt wurden - und oft gravierende Fehler enthalten.

Anzeige

In mehreren Fällen vor Obersten Gerichten, Familiengerichten und Landgerichten haben Richter Personen, Unternehmen und Rechtsvertreter gerügt, weil sie Anträge gestellt hatten, die Dutzende von nicht existierenden oder irrelevanten Fällen zitierten oder bizarr geschrieben und völlig unsinnig waren. Das berichtet das australische Nachrichtenportal Crikey.

Obwohl die Richter in vielen Fällen nicht mit Sicherheit sagen können, wie die Eingaben zustande gekommen sind, deuten typische Anzeichen wie die Erfindung von Rechtsmaterial und die charakteristische Sprache auf den Einsatz von KI hin.

In einem Fall gab ein Anwalt namens "Mr B" zu, eine "juristische Software" verwendet zu haben, um eine Liste von Fällen zu erstellen, die sich als nicht existent erwiesen. In einem anderen Fall legte ein Rechtsvertreter bei einer Anhörung vor dem Queensland Civil Administrative Tribunal 600 Seiten "weitschweifiges, sich wiederholendes und sinnloses" Material vor.

Anzeige
Anzeige

Auch Privatpersonen nutzen KI vor Gericht

Auch Privatpersonen scheinen ChatGPt und Co. vor Gericht einzusetzen. Richter haben auch persönliche Stellungnahmen ignoriert, von denen sie annehmen, dass sie von KI geschrieben wurden. In einem Berufungsverfahren vor dem Obersten Gerichtshof von Tasmanien stellte Richter Alan Michael Blow fest, dass die Eingaben der Berufungsklägerin Dr. Natasha Lakaev einen nicht existierenden Fall zitierten.

Es gab sogar Fälle, in denen ChatGPT-Prompts in Dokumenten auftauchten, die bei Gericht eingereicht wurden. In einem von der australischen Wettbewerbsbehörde und der nationalen Verbraucherschutzorganisation angestrengten Verfahren wies die Behörde darauf hin, dass die Resolution eines Unternehmens mit den Worten "use British spelling please ChatGPT" endete.

Profi-Software schützt nicht vor Bullshit

Das Problem der KI-Halluzinationen im Rechtswesen ist nicht auf Australien beschränkt. In mehreren dokumentierten Fällen haben Anwälte in verschiedenen Ländern KI-generierte Falschinformationen in Gerichtsverfahren verwendet. Die Folgen waren Verfahrenseinstellungen und Strafen.

Eine Studie der Stanford University ergab, dass KI-Tools für juristische Recherche bei jeder sechsten Anfrage Fehler machen. Die Forscher fordern mehr Transparenz beim Einsatz von KI im Rechtswesen und betonen die Notwendigkeit, jede KI-generierte Information sorgfältig zu überprüfen.

Rechtsaufsichtsbehörden und Gerichte weltweit haben unterschiedlich reagiert, von der Herausgabe von Leitlinien hin zu Verboten für den Einsatz von KI. Jedenfalls zeigen die inzwischen zahlreichen Beispiele, wie wichtig Fortbildungen - für Juristen und darüber hinaus - im Umgang mit KI-Systemen sind. Offenbar kennen die Anwender die Grenzen der Systeme nicht oder es ist ihnen schlicht egal. Fortbildung ist auch ein wichtiger Aspekt im EU-AI-Act.

Anzeige
Anzeige
Community beitreten
Kommt in die DECODER-Community bei Discord,Reddit, Twitter und Co. - wir freuen uns auf euch!
Empfehlung
Unterstütze unsere unabhängige, frei zugängliche Berichterstattung. Jeder Betrag hilft und sichert unsere Zukunft. Jetzt unterstützen:
Banküberweisung
Zusammenfassung
  • Australische Gerichte sehen sich zunehmend mit Dokumenten konfrontiert, die offensichtlich von künstlicher Intelligenz erstellt wurden und oft schwerwiegende Fehler enthalten, wie die Bezugnahme auf nicht existierende oder irrelevante Fälle oder bizarre und unsinnige Formulierungen.
  • In mehreren Fällen haben Anwälte und Privatpersonen zugegeben, "juristische Software" oder ChatGPT für Eingaben verwendet zu haben, die sich als fehlerhaft erwiesen. In einigen Fällen tauchten ChatGPT-Prompts sogar in Dokumenten auf, die bei Gericht eingereicht wurden.
  • Das Problem von KI-Halluzinationen im Rechtswesen ist nicht auf Australien beschränkt, auch aus anderen Ländern liegen entsprechende Berichte vor. Eine Studie zeigt, dass auch KI-Tools, die speziell für die juristische Recherche entwickelt wurden, Fehler machen.
Quellen
Online-Journalist Matthias ist Gründer und Herausgeber von THE DECODER. Er ist davon überzeugt, dass Künstliche Intelligenz die Beziehung zwischen Mensch und Computer grundlegend verändern wird.
Community beitreten
Kommt in die DECODER-Community bei Discord,Reddit, Twitter und Co. - wir freuen uns auf euch!