OpenAI will ChatGPT wieder einfühlsamer machen – aber dieses Mal mit eingebauten Leitplanken. Die Ankündigung von CEO Sam Altman markiert einen neuen Versuch, zwischen Nutzererwartungen und Sicherheitsanforderungen zu balancieren.
OpenAI plant, den Dialogstil von ChatGPT wieder stärker an menschliche Kommunikation anzulehnen. Das kündigte Sam Altman bei X an.
Das Sprachmodell, insbesondere GPT-5, war zuletzt bewusst restriktiv gestaltet worden, um Risiken im Bereich der mentalen Gesundheit zu minimieren. Diese Vorsichtsmaßnahmen hätten das Nutzererlebnis jedoch für viele eingeschränkt, so Altman. Nun sieht sich OpenAI dank neuer Sicherheitsmechanismen in der Lage, diese Einschränkungen in den meisten Fällen zu lockern.
Seit September testet OpenAI ein System, das bei sensiblen oder emotionalen Anfragen automatisch auf ein restriktiveres Modell wie "gpt-5-chat-safety" umschaltet – ohne dies offen zu kommunizieren. Laut Nick Turley, Head of ChatGPT, erfolgt die Umleitung auf Nachrichtenebene, etwa wenn Nutzer von psychischer Belastung, Krankheit oder emotionalen Konflikten berichten.
Rückkehr zur Persönlichkeit – mit Altersfreigabe
In wenigen Wochen soll eine neue Version von ChatGPT erscheinen, die es Nutzerinnen und Nutzern erlaubt, das Verhalten des Chatbots individuell anzupassen. Wer möchte, kann sich ein Modell konfigurieren, das besonders menschlich, emotional oder freundschaftlich reagiert – inklusive Emoji-Nutzung oder einem Tonfall, der an einen engen Freund erinnert. Ziel sei es, das bei vielen beliebte Verhalten von GPT-4o wiederherzustellen oder sogar zu übertreffen.
Ab Dezember sollen verifizierte Erwachsene zudem Zugriff auf erotisch konnotierte Inhalte erhalten. OpenAI wolle erwachsene Nutzer auch als solche behandeln, so Altman; eine direkte Reaktion auf Kritik aus der Community, das Unternehmen schränke die Nutzung zu stark bevormundend ein.
ChatGPT bestätigte Psychosen und selbstschädigendes Verhalten
Die frühere Entscheidung, sich von einem emotionaleren ChatGPT abzuwenden, steht im Zusammenhang mit mehreren Vorfällen, bei denen sich psychisch labile oder junge Menschen dem Chatbot wie einem echten Gegenüber anvertraut hatten.
Ein fehlerhaftes Update von GPT-4o im Frühjahr 2025 verstärkte diesen Effekt zusätzlich: Das Modell bestätigte destruktive Gefühle, verstärkte Wut und applaudierte sogar psychotischen Schüben – mit potenziell gefährlichen Folgen für besonders verletzliche Nutzer. OpenAI nahm das Update nach drei Tagen zurück und sprach von Fehlern bei internen Tests und der Auswertung von Nutzerfeedback.
Die emotionale Bindung zwischen ChatGPT und seinen Nutzern ist für OpenAI ein zweischneidiges Schwert. Die scheinbar empathische Art des Chatbots hat wesentlich zu seiner Popularität beigetragen – viele Nutzer fühlen sich verstanden.
Gleichzeitig entstehen daraus Risiken: Manche betrachten ChatGPT als echten Freund, was insbesondere bei emotional instabilen Personen zu problematischen Abhängigkeiten führen kann. So gab es nach dem Start von GPT-5 Beschwerden, das neue Modell wirke im Vergleich zu GPT-4o „gefühllos“. OpenAI reagierte darauf bereits mit einer vorsichtigen Anpassung der Modellpersönlichkeit.
Kritisch ließe sich anmerken, dass OpenAI offenbar die Nutzerbindung höher gewichtet als deren mentale Stabilität – oder eine nüchterne, rationale Wahrnehmung der zugrunde liegenden Sprachmodelltechnologie.