ChatGPT halluziniert - und beeinflusst den politischen Diskurs. Elizabeth Lopatto von The Verge zeigt anhand mehrerer Beispiele, wie Journalisten und Kommentatoren auf falsche Informationen des KI-Chatbots hereingefallen sind.
Ana Navarro-Cardenas, Kommentatorin unter anderem bei CNN, behauptete auf X, Woodrow Wilson habe seinen Schwager Hunter deButts begnadigt. Laut Lopatto gibt es keine Spur von einem Wilson-Schwager namens deButts: „Ich kann nicht beweisen, dass Wilson einen Hunter deButts nicht begnadigt hat; ich kann Ihnen nur sagen, dass, wenn er es getan hat, diese Person nicht sein Schwager war“.
Auch Esquire und andere Medien verbreiteten Fehlinformationen, etwa dass George H.W. Bush seinen Sohn Neil und Jimmy Carter seinen Bruder Billy begnadigt hätten. Es ist nicht klar, woher diese Informationen stammen - aber Navarro-Cardenas nannte ChatGPT als Quelle.
Tatsächlich liefert der Chatbot auf Anfrage mehrere falsche Begnadigungen durch US-Präsidenten. Auch Google Gemini und Perplexity geben teils inkorrekte Antworten. Die Systeme "halluzinieren" nicht belegte Fakten.
Hey Twitter sleuths, thanks for taking the time to provide context. Take it up with Chat GPT…😂😂😂 https://t.co/4OfMtb09xL pic.twitter.com/TiM2CNkPDw
— Ana Navarro-Cárdenas (@ananavarro) December 3, 2024
Laut Lopatto zeigt dies die Gefahren, wenn Menschen blind KI-Systemen vertrauen, statt Primärquellen zu prüfen. Sie kritisiert, dass aktuelle "Answer Engines" im Gegensatz zur klassischen Google-Suche keine Quellen angeben. Die meisten Nutzer würden die Antworten nicht hinterfragen.
Die Autorin sieht darin ein grundsätzliches Problem des Designs dieser Systeme, das menschliches Verhalten nicht berücksichtige. Generative KI in der jetzigen Form sei als Recherche-Tool ungeeignet. Die großflächige "Verschlechterung unserer Informationsumgebung" sei schockierend. Lopatto fragt: "Was nützt eine Antwortmaschine, der niemand vertrauen kann?"
Jüngste Studie zeigt Schwächen von ChatGPT als Suchmaschine
Eine neue Untersuchung des Tow Center for Digital Journalism an der Columbia University bestätigt diese Bedenken. Die Forscher analysierten ChatGPTs Suchfunktion und stellten gravierende Mängel fest. Bei 153 von 200 getesteten News-Zitaten lieferte der Chatbot falsche oder teilweise falsche Quellenangaben. Selbst Inhalte von OpenAI-Partnerverlagen wurden häufig fehlerhaft zitiert oder dargestellt. In einigen Fällen verwies ChatGPT sogar auf plagiierte Artikel statt auf die Originalquellen.
Laut der Studie haben Verlage derzeit keine Möglichkeit, eine korrekte Wiedergabe ihrer Inhalte in ChatGPT sicherzustellen - egal ob sie mit OpenAI kooperieren oder nicht. Die Forscher sehen dringenden Handlungsbedarf, um die Integrität des Informationsökosystems zu schützen.
Korrektur: In der alten Fassung des Artikels hieß es „eine Person, die laut Lopatto nicht existiert“. Dies wurde geändert, um genauer wiederzugeben, was Lopatto in ihrem Artikel schreibt.