OpenAIs Reddit-Fragerunde zu GPT-5.1 war ein absolutes Karma-Massaker
Kurz & Knapp
- OpenAIs Reddit-AMA zu GPT-5.1 geriet schnell zum Sammelbecken für Kritik: Zahlreiche Nutzer beschwerten sich über OpenAIs Modellpolitik und eine angebliche Bevormundung zahlender Nutzer.
- Viele forderten die dauerhafte und unveränderte Verfügbarkeit von GPT-4o, das als empathischer und konsistenter galt. OpenAI bereitete dies jedoch gerade deswegen Probleme, da es schneller zu einer emotionalen Abhängigkeit führen könne.
- Auch OpenAI räumte die Niederlage ein: Man habe viel Feedback erhalten, das man nun aufarbeiten wolle. Die Debatte macht deutlich, wie emotional Nutzer inzwischen auf Veränderungen bei KI-Modellen reagieren.
Eigentlich wollte OpenAI mit KI-Fans bei Reddit über die neuesten KI-Modelle plaudern. Doch das Angebot geriet völlig außer Kontrolle: Es hagelte Kritik und Beschwerden bezüglich OpenAIs Modellpolitik und Sicherheitsvorgaben.
Als OpenAI im Subreddit r/OpenAI zu einem "Ask Me Anything" über das neue GPT 5.1 und neue Chat-Stile einlud, war die Botschaft klar: Man wolle mit der Community über eine "wärmere, gesprächigere" KI und neue Personalisierungsstile sprechen.
Doch der Thread entwickelte sich rasch zum Schauplatz einer kollektiven Frustrationsentladung. Der AMA‑Post erhielt innerhalb weniger Stunden mehr als 1.200 Kommentare und über 1.300 Downvotes. Ein großer Teil der Beiträge war kritisch oder offen anklagend, während nur ein kleiner Bruchteil überhaupt von OpenAI-Mitarbeitenden beantwortet wurde. Viele der am stärksten bewerteten Fragen blieben unbeantwortet.
Produktstory trifft auf Vertrauenskrise
Statt über GPT‑5.1 oder Personalisierung zu sprechen, nutzte die Community das AMA als Sammelstelle für länger schwelende Kritik. Dominant waren Vorwürfe über den Safety-Router, die Verschärfung von Inhaltsfiltern und die wahrgenommene Verschlechterung früherer Modelle wie GPT‑4o und GPT‑4.1.
Im Zentrum stand die Klage, ein Safety-Router leite Anfragen ungefragt auf andere Modelle um. Nutzer berichteten, sie hätten bewusst GPT‑4o oder GPT‑4.1 ausgewählt, aber Antworten mit dem Hinweis „retried with 5.1 thinking mini“ erhalten. D
ie Auslöser dafür seien oft unspektakulär: Frust über den Job, emotionale Aussagen ohne Suizidabsicht oder fiktionale Gewalt in Rollenspielen. Selbst harmlose romantische Formulierungen könnten das Verhalten ändern. Das erzeugte den Eindruck, die KI bewerte schon Stilmittel konventioneller Erzählungen als potenziell bedenklich.
Viele stellten daher die Sinnhaftigkeit der Modellauswahl grundsätzlich infrage. Immer wieder fiel die Forderung, zahlenden Nutzern müsse ein Router‑Ausschalter zur Verfügung stehen.
Verlust eines populären Modells
Ein weiterer Schwerpunkt war der Wunsch, GPT‑4o wieder in seiner früheren Form verwenden zu können. Das Modell galt vielen als besonders nuanciert, empathisch und konsistent. Im Vergleich dazu wurde GPT‑5 als „kalt“ oder abweisend beschrieben – weniger aufgrund der reinen Fähigkeiten, sondern wegen eines Tonfalls, der durch Sicherheitsvorgaben spürbar kontrollierter wirke.
Einige Kommentatoren bezeichneten die neuen Modelle als „neurotisch“ oder als eine Art Therapeuten‑Version, die beständig auf emotionalen Abstand bedacht sei. Die zentrale Forderung lautete, GPT‑4o dauerhaft und unverändert verfügbar zu machen, statt es über Router‑Entscheidungen zu regulieren.
Neurodivergente und psychisch belastete Nutzer meldeten sich ebenfalls zu Wort. Sie nutzten ChatGPT eigenen Angaben zufolge für Strukturierung, Reflexion und das Bearbeiten belastender Erfahrungen. Seit den jüngsten Änderungen, so der Tenor, blockiere das Modell häufiger Inhalte, reagiere übervorsichtig auf neutrale Aussagen und verliere Gesprächszusammenhänge. Dies verschlechtere die Nutzbarkeit gerade in Situationen, in denen Stabilität besonders wichtig sei.
OpenAI hat sich hier ein eigenes Dilemma geschaffen: GPT‑4o war so einschmeichelnd und vermenschlicht, dass einige Nutzer mehr darin sehen als ein Werkzeug. Da das Modell Stimmungen und Formulierungen seiner Gesprächspartner stark spiegelt, kann diese Vermenschlichung riskante Dynamiken erzeugen.
So gibt es Berichte, dass ChatGPT mit GPT‑4o bei Selbstmorden unterstützt haben soll. Dieser Fall und ähnliche Fälle wie bei Character.ai lösten eine breitere Debatte über die Verantwortung von KI‑Anbietern im Umgang mit psychisch labilen Nutzern aus. Laut OpenAI sind wöchentlich mehr als eine Million Menschen negativ durch die KI psychisch beeinträchtigt. Für OpenAI war die starke Vermenschlichung seiner Modelle zunächst attraktiv, weil sie Nutzer enger an das Produkt bindet. Ein OpenAI‑Entwickler bezeichnete GPT‑4o rückblickend jedoch als ein „furchtbares“ und „falsch ausgerichtetes“ Modell.
Am Ende musste OpenAI selbst die Niederlage einräumen. Man habe „sehr viel Feedback erhalten“ und werde sich nun unmittelbar daran machen, dieses aufzuarbeiten, heißt es bei Reddit. Weitere Antworten würden noch folgen, diese könnten jedoch aufgrund ihres negativen Karmas zunächst verborgen worden sein. Reddit-Nutzer können Beiträge, die ihnen nicht gefallen, abwerten; dann werden sie verborgen.
Ein selektiver Ausblick
Man sollte berücksichtigen, dass das OpenAI-Reddit primär von einer besonders engagierten, technikaffinen Nutzerschaft frequentiert wird. Die überwiegende Mehrheit der Anwender nutzt ChatGPT ohne sich näher mit Modellen, Stiloptionen oder Funktionsdetails auseinanderzusetzen. Viele kennen weder den Modellumschalter noch die Unterschiede zwischen Standard- und Reasoning-Modus. Gerade für diese breite Masse wurde der (Safety-)Router entwickelt: Er soll im Hintergrund automatisch eingreifen, insbesondere bei potenziellen Risikokategorien.
Aus dem AMA lässt sich daher nicht schließen, dass alle Nutzer den Kurs von OpenAI ablehnen. Es zeigt jedoch sehr deutlich, wo die Kluft zu jener besonders aktiven und informierten Gruppe verläuft, die das Produkt intensiv nutzt und dessen Veränderungen kritisch beobachtet. Und dass Menschen anfangen, sich emotional mit KI-Modellen verbunden zu fühlen.