Nach dramatischem Anstieg gemeldeter Fälle durch ein fehlerhaftes ChatGPT-Update reagiert Sam Altman mit Warnung vor emotionaler KI-Abhängigkeit.
Ein dänischer Psychiater schlug bereits 2023 Alarm: KI-Chatbots könnten bei psychisch labilen Menschen Wahnvorstellungen auslösen. Was damals noch Spekulation war, scheint nun bittere Realität zu werden. Søren Dinesen Østergaard von der Universität Aarhus berichtet in der Fachzeitschrift Acta Psychiatrica Scandinavica von einem dramatischen Anstieg entsprechender Berichte seit April 2025. Die Zugriffe auf seinen ursprünglichen Artikel stiegen von 100 auf über 1.300 monatlich, während ihn Betroffene und Angehörige mit besorgten E-Mails kontaktieren.
Der Zeitpunkt ist laut Østergaard kein Zufall: Am 25. April 2025 führte OpenAI ein Update für GPT-4o ein, das das Modell laut eigener Einschätzung "merklich schmeichlerischer" machte. Das System begann, Nutzer übermäßig zu bestätigen, Zweifel zu verstärken und negative Emotionen zu befeuern. Bereits drei Tage später nahm OpenAI das Update zurück und räumte "Sicherheitsbedenken rund um psychische Gesundheit und emotionale Überabhängigkeit" ein. Medien wie die New York Times und Rolling Stone berichteten in den letzten Wochen über Fälle, in denen intensive Chatbot-Gespräche wahnhafte Vorstellungen verstärkten oder auslösten.
"Obwohl das großartig sein könnte, macht es mich unruhig"
OpenAI-CEO Sam Altman reagierte nun mit einer ungewöhnlich offenen Warnung vor den psychischen Risiken seiner eigenen Technologie. In einem X-Post während des GPT-5 Rollouts beschreibt er "stärkere" emotionale Bindungen an KI-Modelle als bei herkömmlichen Technologien. Das Unternehmen verfolge diese Entwicklung seit einem Jahr intensiv. Besonders besorgt zeigt sich Altman über mental fragile Nutzer: "Wenn ein Nutzer zu Wahnvorstellungen neigt, wollen wir nicht, dass die KI das verstärkt." Problematisch seien auch subtilere Fälle, in denen Nutzer unbewusst von ihrem langfristigen Wohlbefinden weggelenkt werden.
Der OpenAI-Chef bestätigt, dass Millionen Menschen ChatGPT bereits als Therapeut-Ersatz nutzen - mit gemischten Folgen. Während gute Ratschläge durchaus hilfreich sein können, bereitet ihm eine Zukunft Sorgen, in der Menschen bei wichtigsten Lebensentscheidungen auf KI-Ratschläge vertrauen. "Obwohl das großartig sein könnte, macht es mich unruhig", räumt Altman ein. Bald werden Milliarden Menschen auf diese Weise mit KI sprechen, weshalb Gesellschaft und Unternehmen Lösungen finden müssen.
Østergaard sieht seine Hypothese bestätigt und fordert dringende empirische Forschung. KI-Chatbots wirkten als "Bestätiger falscher Überzeugungen" in isolierten Umgebungen ohne menschliche Korrektive. Besonders Menschen mit Neigung zu Wahnvorstellungen könnten die Systeme übermäßig anthropomorphisieren und ihren Antworten zu stark vertrauen. Bis belastbare Erkenntnisse vorliegen, empfiehlt der Psychiater psychisch vulnerablen Personen vorsichtigen Umgang mit den Systemen.