Inhalt
summary Zusammenfassung

Die Forscher argumentieren, dass die Unwahrheiten von ChatGPT und anderen großen Sprachmodellen besser als "Bullshit" bezeichnet werden sollten. Die Systeme seien gleichgültig gegenüber der Wahrheit, wenn sie ihre Texte schreiben.

Wenn große Sprachmodelle (Large Language Models, LLMs) wie ChatGPT von OpenAI falsche Behauptungen aufstellen, dann "halluzinieren" sie nicht und lügen auch nicht - sie verbreiten Bullshit, schreiben Forscher von der Universität Glasgow in einem Artikel in der Fachzeitschrift Ethics and Information Technology.

Sie stützen sich dabei auf die Analyse des Alltagsbegriffs "Bullshit" durch den Philosophen Harry Frankfurt. Demnach zeichnet sich Bullshit nicht durch eine Täuschungsabsicht, sondern durch eine rücksichtslose Missachtung der Wahrheit aus.

Jemand, der Bullshit verbreitet, will nicht unbedingt täuschen, sondern ist einfach gleichgültig gegenüber der Wahrheit dessen, was er sagt. Genau das sei bei LLM der Fall, so die Forscher.

Anzeige
Anzeige

Lügen, Bullshit und Halluzinationen

Nach herkömmlicher Auffassung lügt jemand, wenn er eine Behauptung aufstellt, von der er glaubt, dass sie falsch ist, in der Absicht, den anderen glauben zu machen, dass sie wahr ist.

Bullshit hingegen erfordert nicht, dass der Sprecher von der Wahrheit überzeugt ist. Der "Bullshitter" kümmert sich nicht um die Wahrheit und täuscht uns vielleicht nicht einmal, weder über die Fakten noch darüber, wofür er sie hält.

Die Forscher unterscheiden zwei Arten von Bullshit: Beim "harten Bullshit" versucht der Sprecher, den Zuhörer über seine Agenda zu täuschen. Beim "weichen Bullshit" hat der Sprecher diese Absicht nicht, sondern ist einfach gleichgültig gegenüber der Wahrheit.

Halluzinationen hingegen seien fehlgeleitete Wahrnehmungen von etwas, das nicht existiert. Für LLMs sei das eine unpassende Metapher: Die Systeme nehmen nichts wahr und versuchen auch nicht, etwas zu kommunizieren, was sie glauben oder wahrnehmen.

ChatGPT verbreitet "weichen Bullshit"

Die Forscher argumentieren, dass ChatGPT und andere LLMs eindeutig "weichen bullshit" verbreiten. Die Systeme seien nicht darauf ausgelegt, wahre Aussagen zu produzieren, sondern Texte, die nicht von menschlichen Texten zu unterscheiden seien. Es gehe ihnen um Überzeugungskraft, nicht um Korrektheit.

Empfehlung

Ob ChatGPT auch "harten Bullshit" produziere, sei eine schwierigere Frage und hänge davon ab, ob man dem System Intentionen zuschreiben könne. Das hänge von einer Reihe komplexer Fragen ab, etwa, ob ChatGPT Überzeugungen oder innere Repräsentationen habe, die die Wahrheit darstellen sollen.

Für die Einstufung als "harter Bullshit" könne es aber auch ausreichen, dass ChatGPT so gestaltet ist, dass es vorgibt, die Wahrheit zu vertreten und damit das Publikum über Ziele und Absichten täuscht.

Die Gefahr des Begriffs "Halluzinationen"

Die Beschreibung von KI-Bullshit als "Halluzinationen" sei nicht harmlos, warnen die Autoren: Sie trage dazu bei, die Fähigkeiten der Systeme zu überschätzen. Außerdem suggeriere sie Lösungen für Genauigkeitsprobleme, die möglicherweise nicht existieren.

Die Systeme als "Bullshitter" zu bezeichnen, sei zutreffender und eine gute Wissenschafts- und Technologiekommunikation in einem Bereich, der sie dringend brauche, so die Schlussfolgerung der Forscher.

Anzeige
Community beitreten
Kommt in die DECODER-Community bei Discord,Reddit, Twitter und Co. - wir freuen uns auf euch!
Anzeige
Community beitreten
Kommt in die DECODER-Community bei Discord,Reddit, Twitter und Co. - wir freuen uns auf euch!

ChatGPT sieht es übrigens genauso. Nach der Lektüre der Studie schließt der Chatbot: "Die Diskussion über die Ergebnisse von Sprachmodellen als 'Bullshit' im philosophischen Sinne zu bezeichnen, kann dazu beitragen, ihre Fähigkeiten und Grenzen zu verdeutlichen und ein genaueres Verständnis dafür zu entwickeln, wie diese Modelle funktionieren und was man von ihnen erwarten kann."

Unterstütze unsere unabhängige, frei zugängliche Berichterstattung. Jeder Betrag hilft und sichert unsere Zukunft. Jetzt unterstützen:
Banküberweisung
Zusammenfassung
  • Forscher der Universität Glasgow argumentieren, dass die Unwahrheiten von ChatGPT und anderen großen Sprachmodellen besser als "Bullshit" statt "Halluzinationen" bezeichnet werden sollten.  Laut des Philosophen Harry Frankfurt zeichnet sich Bullshit durch eine gleichgültige Haltung gegenüber der Wahrheit aus.
  • Die Forscher unterscheiden zwischen "hartem Bullshit", bei dem der Sprecher über seine Absichten täuschen will, und "weichem Bullshit", bei dem der Sprecher einfach gleichgültig gegenüber der Wahrheit ist. ChatGPT verbreite eindeutig "weichen Bullshit", da es auf überzeugende, nicht korrekte Aussagen ausgelegt sei.
  • Die Bezeichnung "Halluzinationen" für falsche KI-Aussagen sei problematisch, da sie die Fähigkeiten der Systeme überschätze und Lösbarkeit suggeriere. Die Forscher plädieren für den Begriff "Bullshit" als treffendere Beschreibung, um eine bessere wissenschaftliche Kommunikation in diesem Bereich zu fördern.
Quellen
Online-Journalist Matthias ist Gründer und Herausgeber von THE DECODER. Er ist davon überzeugt, dass Künstliche Intelligenz die Beziehung zwischen Mensch und Computer grundlegend verändern wird.
Community beitreten
Kommt in die DECODER-Community bei Discord,Reddit, Twitter und Co. - wir freuen uns auf euch!