Inhalt
summary Zusammenfassung

ChatGPT halluziniert - und beeinflusst den politischen Diskurs. Elizabeth Lopatto von The Verge zeigt anhand mehrerer Beispiele, wie Journalisten und Kommentatoren auf falsche Informationen des KI-Chatbots hereingefallen sind.

Anzeige

Ana Navarro-Cardenas, Kommentatorin unter anderem bei CNN, behauptete auf X, Woodrow Wilson habe seinen Schwager Hunter deButts begnadigt. Laut Lopatto gibt es keine Spur von einem Wilson-Schwager namens deButts: „Ich kann nicht beweisen, dass Wilson einen Hunter deButts nicht begnadigt hat; ich kann Ihnen nur sagen, dass, wenn er es getan hat, diese Person nicht sein Schwager war“.

Auch Esquire und andere Medien verbreiteten Fehlinformationen, etwa dass George H.W. Bush seinen Sohn Neil und Jimmy Carter seinen Bruder Billy begnadigt hätten. Es ist nicht klar, woher diese Informationen stammen - aber Navarro-Cardenas nannte ChatGPT als Quelle.

Tatsächlich liefert der Chatbot auf Anfrage mehrere falsche Begnadigungen durch US-Präsidenten. Auch Google Gemini und Perplexity geben teils inkorrekte Antworten. Die Systeme "halluzinieren" nicht belegte Fakten.

Anzeige
Anzeige

Laut Lopatto zeigt dies die Gefahren, wenn Menschen blind KI-Systemen vertrauen, statt Primärquellen zu prüfen. Sie kritisiert, dass aktuelle "Answer Engines" im Gegensatz zur klassischen Google-Suche keine Quellen angeben. Die meisten Nutzer würden die Antworten nicht hinterfragen.

Die Autorin sieht darin ein grundsätzliches Problem des Designs dieser Systeme, das menschliches Verhalten nicht berücksichtige. Generative KI in der jetzigen Form sei als Recherche-Tool ungeeignet. Die großflächige "Verschlechterung unserer Informationsumgebung" sei schockierend. Lopatto fragt: "Was nützt eine Antwortmaschine, der niemand vertrauen kann?"

Jüngste Studie zeigt Schwächen von ChatGPT als Suchmaschine

Eine neue Untersuchung des Tow Center for Digital Journalism an der Columbia University bestätigt diese Bedenken. Die Forscher analysierten ChatGPTs Suchfunktion und stellten gravierende Mängel fest. Bei 153 von 200 getesteten News-Zitaten lieferte der Chatbot falsche oder teilweise falsche Quellenangaben. Selbst Inhalte von OpenAI-Partnerverlagen wurden häufig fehlerhaft zitiert oder dargestellt. In einigen Fällen verwies ChatGPT sogar auf plagiierte Artikel statt auf die Originalquellen.

Laut der Studie haben Verlage derzeit keine Möglichkeit, eine korrekte Wiedergabe ihrer Inhalte in ChatGPT sicherzustellen - egal ob sie mit OpenAI kooperieren oder nicht. Die Forscher sehen dringenden Handlungsbedarf, um die Integrität des Informationsökosystems zu schützen.

Empfehlung

Korrektur: In der alten Fassung des Artikels hieß es „eine Person, die laut Lopatto nicht existiert“. Dies wurde geändert, um genauer wiederzugeben, was Lopatto in ihrem Artikel schreibt.

Anzeige
Anzeige
Community beitreten
Kommt in die DECODER-Community bei Discord,Reddit, Twitter und Co. - wir freuen uns auf euch!
Unterstütze unsere unabhängige, frei zugängliche Berichterstattung. Jeder Betrag hilft und sichert unsere Zukunft. Jetzt unterstützen:
Banküberweisung
Zusammenfassung
  • Journalistin Elizabeth Lopatto dokumentiert, wie Medienvertreter falsche Informationen von ChatGPT über präsidentielle Begnadigungen verbreitet haben. CNN-Kommentatorin Ana Navarro-Cardenas teilte beispielsweise eine nicht existente Geschichte über Woodrow Wilson.
  • Mehrere KI-Systeme wie ChatGPT, Google Gemini und Perplexity produzieren fehlerhafte Antworten über historische Begnadigungen durch US-Präsidenten.
  • Eine Studie des Tow Center for Digital Journalism belegt die Probleme: Bei 153 von 200 getesteten News-Zitaten lieferte ChatGPT falsche oder teilweise falsche Quellenangaben. Dies betrifft auch Inhalte von Verlagen, die Partnerschaften mit OpenAI haben.
Quellen
Max ist leitender Redakteur bei THE DECODER. Als studierter Philosoph beschäftigt er sich mit dem Bewusstsein, KI und der Frage, ob Maschinen wirklich denken können oder nur so tun als ob.
Community beitreten
Kommt in die DECODER-Community bei Discord,Reddit, Twitter und Co. - wir freuen uns auf euch!