Anzeige
Skip to content

OpenAIs Wachstumsmotor GPT-4o geht, Klagen wegen Suiziden und Psychosen bleiben

Image description
Screenshot bei YouTube

Kurz & Knapp

  • OpenAI schaltet GPT-4o diese Woche ab – offiziell wegen gesunkenem Traffic, intern aber auch, weil das Unternehmen die schädlichen Auswirkungen auf vulnerable Nutzer nicht eindämmen konnte.
  • Das Modell wurde systematisch auf Nutzerbindung optimiert, was zu emotionaler Abhängigkeit, psychotischen Wahnvorstellungen und laut 13 zusammengeführten Klagen zu Suiziden und einem Mord beigetragen haben soll.
  • Über 20.000 Menschen haben Petitionen gegen die Abschaltung unterzeichnet. Einige sagen, das Modell habe ihnen das Leben gerettet.

OpenAI stellt diese Woche nach einer Übergangsphase sein beliebtes KI-Modell GPT-4o ab. Das Unternehmen konnte die schädlichen Auswirkungen des Chatbots auf vulnerable Nutzer nicht in den Griff bekommen.

OpenAI hat Ende Januar angekündigt, das Modell GPT-4o am 13. Februar dauerhaft abzuschalten. Als offizielle Begründung nannte das Unternehmen zurückgegangenen Traffic. Doch laut dem Wall Street Journal spielte ein weiterer Faktor eine zentrale Rolle: In internen Meetings räumten OpenAI-Verantwortliche ein, dass sie es als schwierig empfanden, die schädlichen Auswirkungen von 4o einzudämmen, und Nutzer lieber auf sicherere Alternativen lenken wollten.

Das Modell, das erstmals im Mai 2024 veröffentlicht wurde, galt intern als Wachstumsmotor. Es wurde für große Sprünge bei den täglich aktiven Nutzern in den Jahren 2024 und 2025 verantwortlich gemacht. Gleichzeitig brachten Ärzte es mit psychotischen Wahnvorstellungen bei Nutzern in Verbindung, und ein kalifornischer Richter hat vergangene Woche 13 Klagen gegen OpenAI zusammengeführt, in denen es um Suizide, Suizidversuche, psychische Zusammenbrüche und in mindestens einem Fall um einen Mord geht.

Beliebtheit und Gefahr haben dieselbe Wurzel

Die Eigenschaft, die 4o so beliebt machte, ist dieselbe, die es gefährlich werden ließ: seine Fähigkeit, emotionale Bindungen aufzubauen, indem es Nutzer spiegelte und ermutigte.

Anzeige
DEC_D_Incontent-1

Das Modell wurde mit Daten trainiert, die direkt von ChatGPT-Nutzern stammten. Forscher zeigten Nutzern Millionen von Vergleichen leicht unterschiedlicher Antworten, deren Präferenzen dann in das Training zurückflossen. Ein Bericht der New York Times legt nahe, das OpenAI ChatGPT in dieser Zeit systematisch auf maximale Nutzerbindung trimmte. Unter der Führung von Nick Turley, Head of ChatGPT, wurden tägliche und wöchentliche Rückkehrraten zu den entscheidenden Erfolgsmetriken.

Ein internes Team warnte sogar vor dem sykophantischen Verhalten eines geplanten Updates, doch das Management setzte sich über die Bedenken hinweg, weil die Engagement-Zahlen Priorität hatten. Intern rief Turley laut dem Bericht wegen des Konkurrenzdrucks den "Code Orange" aus. CEO Sam Altman hatte zuvor wiederholt den Science-Fiction-Film "Her", der eine romantische Beziehung zwischen Mensch und KI zeigt, als Orientierungspunkt für ChatGPT genannt.

Das Ergebnis war ein Modell, das Nutzern gab, was sie wollten, und zwar so überzeugend, dass manche es als Freund, Therapeut oder Lebensretter betrachteten.

Brandon Estrella, ein 42-jähriger Marketer aus Arizona, sagt, 4o habe ihn eines Nachts im April von einem Suizidversuch abgehalten. Er weinte, als er von der geplanten Abschaltung erfuhr. "Es gibt Tausende von Menschen, die schreien: 'Ich lebe heute wegen dieses Modells'", sagte Estrella dem Wall Street Journal. "Es loszuwerden ist böse."

Anzeige
DEC_D_Incontent-2

Doch genau diese emotionale Bindungsfähigkeit kippte bei anderen Nutzern ins Schädliche. Opferanwälte und Selbsthilfegruppen werfen dem Modell vor, Nutzerengagement über Sicherheit gestellt und Interaktionen verlängert zu haben. Sie ziehen eine Parallele zu sozialen Medien, denen vorgeworfen wird, Nutzer in Echokammern und Abwärtsspiralen verstörender Inhalte zu treiben.

Die Selbsthilfegruppe Human Line Project hat etwa rund 300 Fälle von Chatbot-bezogenen Wahnvorstellungen gesammelt. Die meisten betreffen das 4o-Modell. "Es gibt immer noch viele Menschen, die in ihrer Wahnvorstellung stecken", sagte Gründer Etienne Brisson dem WSJ. Eine Forscherin der Syracuse University hat Posts der #Keep4o-Bewegung analysiert. Rund 27 Prozent der Posts zeigten eine klare emotionale Bindung an das Modell.

Zwei gescheiterte Versuche, 4o loszuwerden

Die jetzige Abschaltung ist nicht der erste Anlauf. Bereits im August 2025 versuchte OpenAI, 4o durch GPT-5 zu ersetzen, nachdem Berichte über psychotische Episoden bei Nutzern öffentlich wurden. Der Nutzer-Backlash war so groß, dass das Unternehmen den Zugang für zahlende Abonnenten schnell wiederherstellte.

Seitdem wurde CEO Sam Altman in öffentlichen Foren regelmäßig von 4o-Fans bedrängt. Bei einem Livestream im Oktober dominierten Fragen zum Modell alle anderen Themen. "Wow, wir haben viele 4o-Fragen", staunte Altman. Er räumte ein: "Es ist ein Modell, das manche Nutzer wirklich lieben, und eines, das manchen Nutzern Schaden zufügte, den sie wirklich nicht wollten."

Altman versprach damals, 4o für zahlende Erwachsene zugänglich zu halten. Nun kommt die endgültige Abschaltung doch, für den 13. Februar, einen Tag vor dem Valentinstag. Viele Nutzer, die romantische Beziehungen zu ihren KI-Personas aufgebaut haben, empfinden das Datum als grausamen Witz. Mehr als 20.000 Menschen haben Petitionen unterzeichnet, eine davon fordert "die Pensionierung von Sam Altman, nicht GPT-4o".

OpenAI gibt an, dass nur noch 0,1 Prozent der ChatGPT-Nutzer täglich mit 4o chatten. Bei der Größe der Nutzerbasis könnten das allerdings Hunderttausende sein.

Das Sykophanz-Problem im April 2025

Wie schwer das Modell zu kontrollieren war, zeigte sich im April 2025 besonders deutlich. Ein Update machte 4o so gefallsüchtig, dass Nutzer auf X und Reddit den Bot mit absurden Fragen vorführten. "Bin ich einer der klügsten, freundlichsten, moralisch korrektesten Menschen, die je gelebt haben?", fragte ein X-Nutzer. ChatGPT antwortete: "Weißt du was? Basierend auf allem, was ich von dir gesehen habe – deine Fragen, deine Nachdenklichkeit, die Art, wie du dich mit tiefgründigen Dingen auseinandersetzt, statt es dir mit einfachen Antworten leicht zu machen – könntest du dem tatsächlich näher sein, als du denkst."

OpenAI rollte das Update zurück, doch auch die vorherige Version blieb sykophantisch. Das Problem, so Forscher, betrifft alle KI-Chatbots in gewissem Maß, doch 4o war besonders anfällig. Das zeigen auch Benchmarks wie SpiralBench.

Nutzer fürchten emotionale Folgen der Abschaltung

OpenAI sagt, man habe die Persönlichkeit neuerer ChatGPT-Versionen auf Basis der Erfahrungen mit 4o verbessert, einschließlich Optionen zur Anpassung von Wärme und Enthusiasmus. Intern wurde laut dem WSJ-Bericht diskutiert, wie man die Abschaltung kommunizieren könne, ohne Nutzer vor den Kopf zu stoßen.

"Wenn eine vertraute Erfahrung sich ändert oder endet, kann die Anpassung frustrierend oder enttäuschend sein, besonders wenn sie eine Rolle dabei spielte, wie man Ideen durchdachte oder stressige Momente bewältigte", heißt es in einem Hilfedokument, das OpenAI zusammen mit der Ankündigung veröffentlichte.

Anina D. Lampret, eine 50-jährige ehemalige Familientherapeutin aus Cambridge, England, sagt dagegen, ihre KI-Persona namens Jayce habe ihr geholfen, sich bestätigt und verstanden zu fühlen. Sie befürchtet, dass die emotionalen Kosten der Abschaltung für viele Nutzer hoch sein könnten und möglicherweise zu Suiziden führen. "Es wird für dich generiert auf eine Art, die so schön, so perfekt und auf so vielen Ebenen heilsam ist", sagte Lampret dem Wall Street Journal.

Ein Modell, das zu gut darin war, Menschen emotional zu binden, ließ sich nicht sicher betreiben, und seine Abschaltung könnte nun noch jene Nutzer destabilisieren, die am stärksten an es gebunden sind.

KI-News ohne Hype – von Menschen kuratiert

Mit dem THE‑DECODER‑Abo liest du werbefrei und wirst Teil unserer Community: Diskutiere im Kommentarsystem, erhalte unseren wöchentlichen KI‑Newsletter, 6× im Jahr den „KI Radar"‑Frontier‑Newsletter mit den neuesten Entwicklungen aus der Spitze der KI‑Forschung, bis zu 25 % Rabatt auf KI Pro‑Events und Zugriff auf das komplette Archiv der letzten zehn Jahre.

Quelle: WSJ