Die Forscher argumentieren, dass die Unwahrheiten von ChatGPT und anderen großen Sprachmodellen besser als "Bullshit" bezeichnet werden sollten. Die Systeme seien gleichgültig gegenüber der Wahrheit, wenn sie ihre Texte schreiben.
Wenn große Sprachmodelle (Large Language Models, LLMs) wie ChatGPT von OpenAI falsche Behauptungen aufstellen, dann "halluzinieren" sie nicht und lügen auch nicht - sie verbreiten Bullshit, schreiben Forscher von der Universität Glasgow in einem Artikel in der Fachzeitschrift Ethics and Information Technology.
Sie stützen sich dabei auf die Analyse des Alltagsbegriffs "Bullshit" durch den Philosophen Harry Frankfurt. Demnach zeichnet sich Bullshit nicht durch eine Täuschungsabsicht, sondern durch eine rücksichtslose Missachtung der Wahrheit aus.
Jemand, der Bullshit verbreitet, will nicht unbedingt täuschen, sondern ist einfach gleichgültig gegenüber der Wahrheit dessen, was er sagt. Genau das sei bei LLM der Fall, so die Forscher.
Lügen, Bullshit und Halluzinationen
Nach herkömmlicher Auffassung lügt jemand, wenn er eine Behauptung aufstellt, von der er glaubt, dass sie falsch ist, in der Absicht, den anderen glauben zu machen, dass sie wahr ist.
Bullshit hingegen erfordert nicht, dass der Sprecher von der Wahrheit überzeugt ist. Der "Bullshitter" kümmert sich nicht um die Wahrheit und täuscht uns vielleicht nicht einmal, weder über die Fakten noch darüber, wofür er sie hält.
Die Forscher unterscheiden zwei Arten von Bullshit: Beim "harten Bullshit" versucht der Sprecher, den Zuhörer über seine Agenda zu täuschen. Beim "weichen Bullshit" hat der Sprecher diese Absicht nicht, sondern ist einfach gleichgültig gegenüber der Wahrheit.
Halluzinationen hingegen seien fehlgeleitete Wahrnehmungen von etwas, das nicht existiert. Für LLMs sei das eine unpassende Metapher: Die Systeme nehmen nichts wahr und versuchen auch nicht, etwas zu kommunizieren, was sie glauben oder wahrnehmen.
ChatGPT verbreitet "weichen Bullshit"
Die Forscher argumentieren, dass ChatGPT und andere LLMs eindeutig "weichen bullshit" verbreiten. Die Systeme seien nicht darauf ausgelegt, wahre Aussagen zu produzieren, sondern Texte, die nicht von menschlichen Texten zu unterscheiden seien. Es gehe ihnen um Überzeugungskraft, nicht um Korrektheit.
Ob ChatGPT auch "harten Bullshit" produziere, sei eine schwierigere Frage und hänge davon ab, ob man dem System Intentionen zuschreiben könne. Das hänge von einer Reihe komplexer Fragen ab, etwa, ob ChatGPT Überzeugungen oder innere Repräsentationen habe, die die Wahrheit darstellen sollen.
Für die Einstufung als "harter Bullshit" könne es aber auch ausreichen, dass ChatGPT so gestaltet ist, dass es vorgibt, die Wahrheit zu vertreten und damit das Publikum über Ziele und Absichten täuscht.
Die Gefahr des Begriffs "Halluzinationen"
Die Beschreibung von KI-Bullshit als "Halluzinationen" sei nicht harmlos, warnen die Autoren: Sie trage dazu bei, die Fähigkeiten der Systeme zu überschätzen. Außerdem suggeriere sie Lösungen für Genauigkeitsprobleme, die möglicherweise nicht existieren.
Die Systeme als "Bullshitter" zu bezeichnen, sei zutreffender und eine gute Wissenschafts- und Technologiekommunikation in einem Bereich, der sie dringend brauche, so die Schlussfolgerung der Forscher.
ChatGPT sieht es übrigens genauso. Nach der Lektüre der Studie schließt der Chatbot: "Die Diskussion über die Ergebnisse von Sprachmodellen als 'Bullshit' im philosophischen Sinne zu bezeichnen, kann dazu beitragen, ihre Fähigkeiten und Grenzen zu verdeutlichen und ein genaueres Verständnis dafür zu entwickeln, wie diese Modelle funktionieren und was man von ihnen erwarten kann."