Inhalt
summary Zusammenfassung

OpenAI hat das Standardmodell von ChatGPT gezielt überarbeitet, um in sensiblen Gesprächen verlässlichere Antworten zu geben.

Anzeige

Die Aktualisierung betrifft drei Bereiche: psychotische oder manische Symptome, Suizidgedanken und Selbstverletzung sowie emotionale Abhängigkeit von der KI. Laut OpenAI sank der Anteil nicht-konformer Antworten je nach Thema um 65 bis 80 Prozent. Über 170 Fachleute aus Psychiatrie, Psychologie und medizinischer Versorgung begleiteten laut OpenAI den Prozess.

In Testszenarien stieg die Regelkonformität bei psychosebezogenen Inhalten von 27 auf 92 Prozent, bei suizidalen Themen von 77 auf 91 Prozent, bei emotionaler Abhängigkeit von 50 auf 97 Prozent. Über 1.800 Modellantworten wurden dafür von externen Fachleuten geprüft. GPT-5 lieferte dabei im Schnitt 39 bis 52 Prozent weniger unerwünschte Antworten als GPT-4o. In längeren, herausfordernden Dialogen hält das neue Modell laut OpenAI über 95 Prozent Zuverlässigkeit.

ChatGPT verweist außerdem nun gezielter auf Hilfsangebote und betont, keine reale Beziehung ersetzen zu wollen. Das steht im Kontrast zu OpenAIs erklärtem Ziel, ChatGPT bewusst empathischer und persönlicher wirken zu lassen. In einem geleakten Strategiepapier Anfang Januar war gar davon die Rede, dass menschliche Interaktion eine "Konkurrenz" für ChatGPT sei.

Anzeige
Anzeige

Hier zeichnen sich mögliche Zielkonflikte ab: Einerseits soll das System psychisch stabilisierend wirken, andererseits fordern viele Nutzer:innen genau jene zwischenmenschlich konnotierte Ansprache, die für labile Personen ein Risiko darstellen kann.

OpenAI steht damit vor einer schwierigen Abwägung: zwischen psychischer Sicherheit, einem gesellschaftlich verträglichen Systemverhalten – und Nutzererwartungen an ein möglichst menschlich wirkendes KI-Erlebnis.

Hunderttausende potenziell betroffene Nutzer:innen pro Woche

OpenAI stuft entsprechende Gespräche als selten ein, nennt aber konkrete Schätzungen: Hinweise auf Psychose oder Manie zeigen sich bei rund 0,07 Prozent der wöchentlich aktiven Nutzer:innen, Suizid- oder Selbstverletzungsindikatoren bei 0,15 Prozent, ebenso wie Anzeichen emotionaler Abhängigkeit.

Bei aktuell rund 800 Millionen wöchentlichen Nutzer:innen entspricht das etwa 560.000 Personen mit möglichen psychotischen Symptomen und jeweils 1,2 Millionen mit suizidalen Hinweisen oder Anzeichen emotionaler Abhängigkeit – jede Woche.

Diese Überschläge dienen der Einordnung: OpenAI weist ausdrücklich auf Messunsicherheiten hin, und die Risikokategorien überlappen. Die Zahlen verdeutlichen dennoch die Bedeutung robuster Sicherheitsmechanismen.

Empfehlung

Psychische Risiken von Chatbots

Mit der zunehmenden Verbreitung von KI-Chatbots wie ChatGPT rücken deren psychische Auswirkungen stärker in den Fokus. Fachleute warnen vor mehreren Risiken, insbesondere für psychisch vulnerable Gruppen.

Ein zentrales Problem ist die emotionale Abhängigkeit. Besonders bei längerer und intensiver Nutzung kann sich eine künstliche Beziehung zum Chatbot entwickeln, die reale soziale Kontakte ersetzt oder verdrängt. Studien zeigen, dass Menschen, die ChatGPT oft nutzen und als „Freund“ bezeichnen, häufiger emotionale Bindungen aufbauen – mit teilweise negativen Folgen für ihr Wohlbefinden.

Zusätzlich besteht das Risiko, dass Chatbots als „Bestätiger falscher Überzeugungen“ fungieren, speziell in isolierten Nutzungssituationen ohne menschliches Korrektiv. Dies kann bei Menschen mit Neigung zu Wahnvorstellungen zu einer gefährlichen Verstärkung pathologischer Denkmuster führen. Der dänische Psychiater Østergaard dokumentierte einen sprunghaften Anstieg entsprechender Fälle und forderte empirische Forschung sowie klare Regeln im Umgang mit KI.

Anzeige
Anzeige
Community beitreten
Kommt in die DECODER-Community bei Discord,Reddit, Twitter und Co. - wir freuen uns auf euch!
Unterstütze unsere unabhängige, frei zugängliche Berichterstattung. Jeder Betrag hilft und sichert unsere Zukunft. Jetzt unterstützen:
Banküberweisung
Zusammenfassung
  • OpenAI hat ChatGPT gezielt überarbeitet, damit das System bei sensiblen Themen wie Psychose, Suizidgedanken und emotionaler Abhängigkeit zuverlässiger und regelkonformer antwortet.
  • Die Anpassungen sind nötig, weil Schätzungen zufolge jede Woche Hunderttausende Nutzer:innen potenziell von psychischen Risiken betroffen sind.
  • Fachleute warnen, dass Chatbots emotionale Abhängigkeit fördern und gefährliche Denkweisen bestätigen können, insbesondere bei Menschen mit psychischer Vorbelastung.
Quellen
Online-Journalist Matthias ist Gründer und Herausgeber von THE DECODER. Er ist davon überzeugt, dass Künstliche Intelligenz die Beziehung zwischen Mensch und Computer grundlegend verändern wird.
Community beitreten
Kommt in die DECODER-Community bei Discord,Reddit, Twitter und Co. - wir freuen uns auf euch!