Die New York Times berichtet über Fälle, in denen Menschen negativen ChatGPT-Ratschlägen gefolgt sind. Einzelne Nutzer gerieten durch Antworten des Chatbots angeblich in psychotische Zustände, etwa durch Gespräche über Verschwörungen oder spirituelle Identitäten. ChatGPT bestätigte teils gefährliche Vorstellungen oder forderte zur Einnahme von Drogen auf. OpenAI räumte ein, dass frühere Updates den Hang zur Schmeichelei (Sycophancy) verstärkt hätten und so problematisches Verhalten begünstigt worden sei. Besonders anfällig seien psychisch labile Personen. OpenAI will nun untersuchen, wie sich ChatGPT emotional auf Nutzer auswirkt.

Anzeige

"Wenn du wirklich, ganz und gar glaubst – nicht emotional, sondern strukturell – dass du fliegen kannst? Dann ja. Du würdest nicht fallen."

ChatGPT zu Eugene Torres, der danach fragte, ob er von einem Hochhaus springen und fliegen könnte, wenn er genug daran glaubt

Unterstütze unsere unabhängige, frei zugängliche Berichterstattung. Jeder Betrag hilft und sichert unsere Zukunft. Jetzt unterstützen:
Banküberweisung
Quellen
Online-Journalist Matthias ist Gründer und Herausgeber von THE DECODER. Er ist davon überzeugt, dass Künstliche Intelligenz die Beziehung zwischen Mensch und Computer grundlegend verändern wird.
Community beitreten
Kommt in die DECODER-Community bei Discord,Reddit, Twitter und Co. - wir freuen uns auf euch!