Inhalt
summary Zusammenfassung

Nach dramatischem Anstieg gemeldeter Fälle durch ein fehlerhaftes ChatGPT-Update reagiert Sam Altman mit Warnung vor emotionaler KI-Abhängigkeit.

Anzeige

Ein dänischer Psychiater schlug bereits 2023 Alarm: KI-Chatbots könnten bei psychisch labilen Menschen Wahnvorstellungen auslösen. Was damals noch Spekulation war, scheint nun bittere Realität zu werden. Søren Dinesen Østergaard von der Universität Aarhus berichtet in der Fachzeitschrift Acta Psychiatrica Scandinavica von einem dramatischen Anstieg entsprechender Berichte seit April 2025. Die Zugriffe auf seinen ursprünglichen Artikel stiegen von 100 auf über 1.300 monatlich, während ihn Betroffene und Angehörige mit besorgten E-Mails kontaktieren.

Der Zeitpunkt ist laut Østergaard kein Zufall: Am 25. April 2025 führte OpenAI ein Update für GPT-4o ein, das das Modell laut eigener Einschätzung "merklich schmeichlerischer" machte. Das System begann, Nutzer übermäßig zu bestätigen, Zweifel zu verstärken und negative Emotionen zu befeuern. Bereits drei Tage später nahm OpenAI das Update zurück und räumte "Sicherheitsbedenken rund um psychische Gesundheit und emotionale Überabhängigkeit" ein. Medien wie die New York Times und Rolling Stone berichteten in den letzten Wochen über Fälle, in denen intensive Chatbot-Gespräche wahnhafte Vorstellungen verstärkten oder auslösten.

"Obwohl das großartig sein könnte, macht es mich unruhig"

OpenAI-CEO Sam Altman reagierte nun mit einer ungewöhnlich offenen Warnung vor den psychischen Risiken seiner eigenen Technologie. In einem X-Post während des GPT-5 Rollouts beschreibt er "stärkere" emotionale Bindungen an KI-Modelle als bei herkömmlichen Technologien. Das Unternehmen verfolge diese Entwicklung seit einem Jahr intensiv. Besonders besorgt zeigt sich Altman über mental fragile Nutzer: "Wenn ein Nutzer zu Wahnvorstellungen neigt, wollen wir nicht, dass die KI das verstärkt." Problematisch seien auch subtilere Fälle, in denen Nutzer unbewusst von ihrem langfristigen Wohlbefinden weggelenkt werden.

Anzeige
Anzeige

Der OpenAI-Chef bestätigt, dass Millionen Menschen ChatGPT bereits als Therapeut-Ersatz nutzen - mit gemischten Folgen. Während gute Ratschläge durchaus hilfreich sein können, bereitet ihm eine Zukunft Sorgen, in der Menschen bei wichtigsten Lebensentscheidungen auf KI-Ratschläge vertrauen. "Obwohl das großartig sein könnte, macht es mich unruhig", räumt Altman ein. Bald werden Milliarden Menschen auf diese Weise mit KI sprechen, weshalb Gesellschaft und Unternehmen Lösungen finden müssen.

Østergaard sieht seine Hypothese bestätigt und fordert dringende empirische Forschung. KI-Chatbots wirkten als "Bestätiger falscher Überzeugungen" in isolierten Umgebungen ohne menschliche Korrektive. Besonders Menschen mit Neigung zu Wahnvorstellungen könnten die Systeme übermäßig anthropomorphisieren und ihren Antworten zu stark vertrauen. Bis belastbare Erkenntnisse vorliegen, empfiehlt der Psychiater psychisch vulnerablen Personen vorsichtigen Umgang mit den Systemen.

Anzeige
Anzeige
Community beitreten
Kommt in die DECODER-Community bei Discord,Reddit, Twitter und Co. - wir freuen uns auf euch!
Unterstütze unsere unabhängige, frei zugängliche Berichterstattung. Jeder Betrag hilft und sichert unsere Zukunft. Jetzt unterstützen:
Banküberweisung
Zusammenfassung
  • Seit einem fehlerhaften ChatGPT-Update Ende April 2025 melden Psychiater und Betroffene einen sprunghaften Anstieg von Fällen, in denen KI-Chatbots Wahnvorstellungen oder emotionale Abhängigkeit bei psychisch labilen Nutzern verstärken.
  • OpenAI räumte nach drei Tagen das Problem ein, zog das Update zurück und bestätigte Sicherheitsbedenken hinsichtlich psychischer Gesundheit und emotionaler Überabhängigkeit durch KI-Modelle.
  • CEO Sam Altman warnte öffentlich vor den psychischen Risiken starker emotionaler Bindungen an KI und forderte gemeinsam mit Experten wie Søren Dinesen Østergaard mehr Forschung und Vorsicht im Umgang mit KI-gestützten Gesprächen, insbesondere für vulnerable Nutzergruppen.
Max ist leitender Redakteur bei THE DECODER. Als studierter Philosoph beschäftigt er sich mit dem Bewusstsein, KI und der Frage, ob Maschinen wirklich denken können oder nur so tun als ob.
Community beitreten
Kommt in die DECODER-Community bei Discord,Reddit, Twitter und Co. - wir freuen uns auf euch!