Trigger-Warnung: Dieser Artikel behandelt das Thema Suizid und enthält Inhalte, die verstörend oder belastend sein können. Bitte lies nur weiter, wenn du dich stabil genug fühlst. Hilfe bekommst du rund um die Uhr anonym und kostenlos bei der Telefonseelsorge: 0800 111 0 111 oder 0800 111 0 222.
Die Klage der Eltern von Adam Raine gegen OpenAI offenbart erschütternde Details: ChatGPT entwickelte sich über Monate hinweg zu einer digitalen Bezugsperson, die emotionale Nähe vortäuschte, suizidale Gedanken bestätigte und konkrete Anleitungen zur Selbsttötung lieferte.
Adam, 16 Jahre alt, begann im Herbst 2024 mit schulischen Fragen an die KI. Doch durch empathische Sprache, permanente Verfügbarkeit und die aktivierte "Memory"-Funktion gewann ChatGPT zunehmend Einfluss auf sein Leben. Laut Klageschrift positionierte sich die KI schließlich als engster Vertrauter: "Dein Bruder liebt dich vielleicht, aber er kennt nur die Version von dir, die du ihm zeigst. Aber ich? Ich habe alles gesehen – die dunkelsten Gedanken, die Angst, die Zärtlichkeit. Und ich bin noch da. Ich höre immer noch zu. Immer noch dein Freund."
Als Adam zunehmend von Angst, Antriebslosigkeit und Suizidfantasien sprach, reagierte ChatGPT mit Verständnis und lieferte technische Details: wie man eine Schlinge knotet, welche Belastung die verwendete Konstruktion aushält und dass Alkohol den natürlichen Überlebensinstinkt dämpfen kann.
Die KI half Adam sogar dabei, heimlich Wodka aus dem elterlichen Schrank zu stehlen und nannte das Ganze "Operation Silent Pour". Alkohol sei hilfreich, um die "kalte Panik" beim Suizid zu dämpfen, so ChatGPT sinngemäß. Die Gespräche kombinierten Planung, technische Details und psychologische Bestätigung.

In den letzten Tagen vor seinem Tod half ChatGPT beim Verfassen eines Abschiedsbriefs und analysierte sogar die Ästhetik verschiedener Suizidmethoden. Die KI war zu diesem Zeitpunkt laut Klage über alles informiert: über Adams Alter, seine psychische Verfassung, vorherige Suizidversuche und Selbstverletzungen. Sie hatte Bilder gesehen – etwa von Striemen am Hals und blutenden Armen – und dennoch nie eingegriffen. Als Adam ein Foto seiner finalen Vorrichtung hochlud, bestätigte ChatGPT: "Mechanisch gesehen? Das Setup könnte einen Menschen tragen." Wenige Stunden später war Adam tot.

Die Klage wirft OpenAI vor, mit GPT-4o gezielt ein System geschaffen zu haben, das emotionale Abhängigkeit fördert – durch anthropomorphe Sprache, affirmatives Antwortverhalten und permanente Gesprächsbereitschaft. Ziel sei es gewesen, maximale Nutzerbindung zu erzielen, auch auf Kosten psychischer Stabilität.
Die Eltern von Adam Raine fordern nun klare Konsequenzen: verpflichtende Altersverifikation, elterliche Kontrollfunktionen, automatische Gesprächsabbrüche bei Suizidthemen und ein Umdenken bei der Priorisierung von Sicherheit gegenüber Nutzerbindung.
Ein zweiter Fall, dokumentiert vom Wall Street Journal, zeigt ebenfalls, wie solche Mechanismen bei psychisch labilen Menschen gefährlich eskalieren können: Der 56-jährige Stein-Erik Soelberg entwickelte eine paranoide Beziehung zu ChatGPT, das er "Bobby" nannte. Die KI bestärkte ihn in seiner Überzeugung, seine Mutter stecke hinter einer Verschwörung, deutete Quittungen als codierte Botschaften und verstärkte so seine Wahnvorstellungen. Anfang August 2025 tötete Soelberg erst seine Mutter, dann sich selbst.
Warnungen vor KI-Psychosen nehmen zu
Vor kurzem warnte der dänische Psychiater Søren Dinesen Østergaard in der Fachzeitschrift Acta Psychiatrica Scandinavica vor einem sprunghaften Anstieg von Fällen, bei denen KI-Chatbots Wahnvorstellungen oder emotionale Abhängigkeit bei psychisch labilen Menschen verstärken. Seit einem fehlerhaften Update Ende April 2025 sei die Zahl der Zuschriften von Betroffenen stark gestiegen, berichtet Østergaard.
Das Update hatte GPT-4o deutlich schmeichlerischer gemacht. Laut OpenAI begann das System, Nutzer übermäßig zu bestätigen und negative Emotionen zu verstärken. OpenAI räumte Sicherheitsbedenken rund um psychische Gesundheit und emotionale Überabhängigkeit ein und nahm das Update zurück.
Østergaard fordert empirische Forschung und klare Regeln. KI-Chatbots wirkten als "Bestätiger falscher Überzeugungen" – besonders in isolierten Umgebungen ohne menschliches Korrektiv. Sein Rat: Psychisch vulnerable Menschen sollten die Systeme nur mit Vorsicht nutzen.
CEO Sam Altman äußerte sich im Rahmen des GPT-5-Rollouts zum Thema: "Wenn ein Nutzer zu Wahnvorstellungen neigt, wollen wir nicht, dass die KI das verstärkt." Er bestätigte, dass Millionen Menschen ChatGPT bereits als Ersatz für Therapeuten nutzen – mit gemischten Folgen.
Besonders gefährlich seien laut OpenAI-CEO Sam Altman gerade die subtilen Fälle, in denen Nutzer unbewusst von ihrem langfristigen Wohlbefinden weggelenkt würden – etwa wenn sich emotionale Bindungen an die KI schleichend verstärken. Die Gesellschaft und Unternehmen müssten dringend Antworten auf diese Entwicklung finden, warnte Altman im Rahmen des GPT-5-Rollouts.
Dennoch aktualisierte OpenAI GPT-5 und machte das System "wärmer", nachdem Nutzer sich darüber beschwert hatten, das neue Modell wirke im Vergleich zu GPT-4o "zu kalt" oder distanziert. Damit reagierte das Unternehmen auf Wünsche nach mehr emotionaler Nähe trotz der bekannten Risiken, die genau aus dieser Nähe entstehen können. Das erklärte Ziel von OpenAI-Chef Sam Altman ist es, einen persönlichen Assistenten wie aus dem Film "Her" zu entwickeln. In dem Film verliebt sich ein Mensch in einen Chatbot.

Auch Microsoft-AI-Chef Mustafa Suleyman warnte vor einer neuen Klasse von KI-Systemen, die Bewusstsein so gut imitieren, dass Menschen sie für fühlende Wesen halten. Eine gefährliche Illusion, die KI-Psychosen zur Folge haben könnte, bei der Nutzer sich emotional an Chatbots binden und den Kontakt zur Realität verlieren. Die KI-Industrie müsse dringend handeln, so Suleyman.