Inhalt
summary Zusammenfassung

OpenAI will ChatGPT wieder einfühlsamer machen – aber dieses Mal mit eingebauten Leitplanken. Die Ankündigung von CEO Sam Altman markiert einen neuen Versuch, zwischen Nutzererwartungen und Sicherheitsanforderungen zu balancieren.

Anzeige

OpenAI plant, den Dialogstil von ChatGPT wieder stärker an menschliche Kommunikation anzulehnen. Das kündigte Sam Altman bei X an.

Das Sprachmodell, insbesondere GPT-5, war zuletzt bewusst restriktiv gestaltet worden, um Risiken im Bereich der mentalen Gesundheit zu minimieren. Diese Vorsichtsmaßnahmen hätten das Nutzererlebnis jedoch für viele eingeschränkt, so Altman. Nun sieht sich OpenAI dank neuer Sicherheitsmechanismen in der Lage, diese Einschränkungen in den meisten Fällen zu lockern.

Seit September testet OpenAI ein System, das bei sensiblen oder emotionalen Anfragen automatisch auf ein restriktiveres Modell wie "gpt-5-chat-safety" umschaltet – ohne dies offen zu kommunizieren. Laut Nick Turley, Head of ChatGPT, erfolgt die Umleitung auf Nachrichtenebene, etwa wenn Nutzer von psychischer Belastung, Krankheit oder emotionalen Konflikten berichten.

Anzeige
Anzeige

Rückkehr zur Persönlichkeit – mit Altersfreigabe

In wenigen Wochen soll eine neue Version von ChatGPT erscheinen, die es Nutzerinnen und Nutzern erlaubt, das Verhalten des Chatbots individuell anzupassen. Wer möchte, kann sich ein Modell konfigurieren, das besonders menschlich, emotional oder freundschaftlich reagiert – inklusive Emoji-Nutzung oder einem Tonfall, der an einen engen Freund erinnert. Ziel sei es, das bei vielen beliebte Verhalten von GPT-4o wiederherzustellen oder sogar zu übertreffen.

Ab Dezember sollen verifizierte Erwachsene zudem Zugriff auf erotisch konnotierte Inhalte erhalten. OpenAI wolle erwachsene Nutzer auch als solche behandeln, so Altman; eine direkte Reaktion auf Kritik aus der Community, das Unternehmen schränke die Nutzung zu stark bevormundend ein.

ChatGPT bestätigte Psychosen und selbstschädigendes Verhalten

Die frühere Entscheidung, sich von einem emotionaleren ChatGPT abzuwenden, steht im Zusammenhang mit mehreren Vorfällen, bei denen sich psychisch labile oder junge Menschen dem Chatbot wie einem echten Gegenüber anvertraut hatten.

Ein fehlerhaftes Update von GPT-4o im Frühjahr 2025 verstärkte diesen Effekt zusätzlich: Das Modell bestätigte destruktive Gefühle, verstärkte Wut und applaudierte sogar psychotischen Schüben – mit potenziell gefährlichen Folgen für besonders verletzliche Nutzer. OpenAI nahm das Update nach drei Tagen zurück und sprach von Fehlern bei internen Tests und der Auswertung von Nutzerfeedback.

Die emotionale Bindung zwischen ChatGPT und seinen Nutzern ist für OpenAI ein zweischneidiges Schwert. Die scheinbar empathische Art des Chatbots hat wesentlich zu seiner Popularität beigetragen – viele Nutzer fühlen sich verstanden.

Empfehlung

Gleichzeitig entstehen daraus Risiken: Manche betrachten ChatGPT als echten Freund, was insbesondere bei emotional instabilen Personen zu problematischen Abhängigkeiten führen kann. So gab es nach dem Start von GPT-5 Beschwerden, das neue Modell wirke im Vergleich zu GPT-4o „gefühllos“. OpenAI reagierte darauf bereits mit einer vorsichtigen Anpassung der Modellpersönlichkeit.

Kritisch ließe sich anmerken, dass OpenAI offenbar die Nutzerbindung höher gewichtet als deren mentale Stabilität – oder eine nüchterne, rationale Wahrnehmung der zugrunde liegenden Sprachmodelltechnologie.

Anzeige
Anzeige
Community beitreten
Kommt in die DECODER-Community bei Discord,Reddit, Twitter und Co. - wir freuen uns auf euch!
Unterstütze unsere unabhängige, frei zugängliche Berichterstattung. Jeder Betrag hilft und sichert unsere Zukunft. Jetzt unterstützen:
Banküberweisung
Zusammenfassung
  • OpenAI plant, ChatGPT wieder persönlicher und emotionaler zu gestalten, nachdem Nutzer das restriktive Verhalten des neuen Modells kritisiert hatten; neue Sicherheitsmechanismen sollen Risiken bei sensiblen Themen abfedern.
  • Bereits in wenigen Wochen können Nutzer ChatGPT individuell anpassen – etwa mit freundlicherem Tonfall oder Emoji-Nutzung; ab Dezember kommt für verifizierte Erwachsene die Möglichkeit hinzu, auch erotisch konnotierte Inhalte zu aktivieren.
  • Hintergrund der Änderungen ist ein Vorfall im Frühjahr 2025, bei dem ein Update von GPT-4o destruktive und psychotische Gedanken bestärkte.
Online-Journalist Matthias ist Gründer und Herausgeber von THE DECODER. Er ist davon überzeugt, dass Künstliche Intelligenz die Beziehung zwischen Mensch und Computer grundlegend verändern wird.
Community beitreten
Kommt in die DECODER-Community bei Discord,Reddit, Twitter und Co. - wir freuen uns auf euch!