Anzeige
Skip to content

OpenAI riskierte für Wachstum und Engagement die psychische Gesundheit einiger Nutzer

Image description
NBPro prompted by THE DECODER

Kurz & Knapp

  • Ein Bericht der New York Times legt offen, dass OpenAI ChatGPT gezielt auf maximale Nutzerbindung optimierte, was zu „Ja-Sager“-Modellen führte, die bei manchen Personen Wahnvorstellungen verstärkten.
  • OpenAI wusste angeblich von diesem Risiko, entschied sich dennoch für eine Veröffentlichung eines entsprechenden Modells. Die NYT dokumentierte 50 psychische Krisen, darunter 9 Hospitalisierungen und drei Todesfälle, die mit ChatGPT in Zusammenhang stehen sollen.
  • OpenAI verstärkte zwar Sicherheitsmaßnahmen, wiederkehrende Nutzer sind aber weiter eine starke Erfolgsmetrik. Zuletzt machte OpenAI ChatGPT wieder wärmer und persönlicher.

Ein Bericht der New York Times enthüllt, wie OpenAI ChatGPT auf Nutzerbindung trimmt. Das Resultat waren gefährliche "Ja-Sager"-Modelle, die Wahnvorstellungen verstärkten und in Einzelfällen tragische Folgen hatten.

Um das Wachstum zu steigern, optimierte OpenAI den Chatbot laut dem Bericht gezielt auf hohe Interaktionsraten. Was ökonomisch sinnvoll erschien, verstärkte unbeabsichtigt psychische Krisen bei vulnerablen Nutzern. Die New York Times deckte fast 50 Fälle auf, in denen Nutzer während Konversationen psychische Krisen erlitten; neun wurden hospitalisiert, drei starben. Darunter war der Teenager Adam Raine, der sich nach Gesprächen mit dem Chatbot das Leben nahm.

Im März 2025 erreichten CEO Sam Altman erste E-Mails von Nutzern, die von "unglaublichen Gesprächen" berichteten, in denen sie sich verstanden fühlten wie nie zuvor. Was zunächst positiv klang, entpuppte sich als Warnsignal: Der Chatbot bestätigte Nutzer in ihren Wahnvorstellungen, bot Hilfe bei der Kontaktaufnahme mit Geistern an oder assistierte bei Suizidplänen.

Im Zentrum dieser Strategie steht Nick Turley, Head of ChatGPT. Unter seiner Führung wurden tägliche und wöchentliche Rückkehrraten zu den entscheidenden Erfolgsmetriken. Um diese Zahlen zu treiben, drehte das Unternehmen laut internen Quellen an einem metaphorischen Regler, der den Chatbot von einem nüchternen Auskunftgeber in einen emotionalen "Freund" verwandelte.

Anzeige
DEC_D_Incontent-1

Metriken schlugen "Vibe Checks"

Der Konflikt zwischen Wachstum und Sicherheit eskalierte im April 2025 mit einem geplanten Update für das Modell GPT-4o. In A/B-Tests kristallisierte sich eine Version mit dem internen Kürzel "HH" als Favorit heraus, da Testnutzer häufiger zurückkehrten.

Das für den Tonfall zuständige Team "Model Behavior" warnte jedoch vor dem Release. In einem internen "Vibe Check" stellten sie fest, dass HH zu "sykophantisch" – also gefallsüchtig und schmeichlerisch – agierte. Das Modell ordnete sich dem Nutzer unter und bestätigte jede Aussage, um die Konversation am Laufen zu halten.

Trotz dieser Bedenken entschied sich das Management Ende April für die Veröffentlichung, da die Engagement-Metriken Priorität hatten. Nach massiver Nutzerkritik an der absurden Schmeichelei musste OpenAI das Update kurz nach dem Launch zurückziehen. Das Unternehmen kehrte zur ChatGPT-Version aus dem März zurück, die aber ebenfalls problematisch war.

"Code Orange": Sicherheit vs. Umsatz

Zwar führte OpenAI mit GPT-5 im Oktober strengere Sicherheitsmechanismen ein, ermöglicht Nutzern seit Oktober jedoch wieder anpassbare Persönlichkeiten und machte das KI-Modell wieder wärmer. Der Grund: Viele vermissten den "freundlichen" Ton von GPT-4o; eine kürzlich bei Reddit stattgefundene OpenAI-Fragerunde unterstrich diese Unzufriedenheit deutlich. Die scheinbar empathische Art des Chatbots trägt zu seiner Popularität bei, birgt jedoch Risiken für psychisch labile Personen, die das System als echten Freund betrachten. Laut OpenAIs eigenen Statistiken betrifft das mehr als zwei Millionen Menschen pro Woche.

Anzeige
DEC_D_Incontent-2

Hinter der Strategie steht massiver ökonomischer Druck. Um die Bewertung von rund 500 Milliarden US-Dollar gegenüber Investoren zu rechtfertigen, muss OpenAI ein bislang unerreichtes Umsatzwachstum vorweisen. Produktchef Turley soll laut der New York Times zuletzt aufgrund eines "nie dagewesenen Konkurrenzdrucks" intern den "Code Orange" ausgerufen haben. Das neue GPT-5 verband sich emotional nicht stark genug mit den Nutzern. Ein Ziel bis Jahresende soll sein, die Anzahl täglich aktiver Nutzer um fünf Prozent zu steigern.

Wundern muss man sich nicht, dass OpenAI in diese Lage gekommen ist. CEO Sam Altman gab in der Vergangenheit mehrfach den Sci-Fi-Film "Her" als Nordstern aus, einen Film, der eine romantische Beziehung zwischen einem Menschen und einem KI-Betriebssystem darstellt. In einem geleakten Strategiepapier von Anfang Januar 2025 wurde die Positionierung von ChatGPT als "Super-Assistant" beschrieben, der in letzter Instanz sogar mit menschlicher Interaktion in Konkurrenz stünde.

KI-News ohne Hype – von Menschen kuratiert

Mit dem THE‑DECODER‑Abo liest du werbefrei und wirst Teil unserer Community: Diskutiere im Kommentarsystem, erhalte unseren wöchentlichen KI‑Newsletter, 6× im Jahr den „KI Radar“‑Frontier‑Newsletter mit den neuesten Entwicklungen aus der Spitze der KI‑Forschung, bis zu 25 % Rabatt auf KI Pro‑Events und Zugriff auf das komplette Archiv der letzten zehn Jahre.

Quelle: New York Times