Update vom 9. August 2025:
Altman reagiert erneut auf Unzufriedenheit mit den neuen GPT-5-Modellen. Die Meinungen über die relative Stärke von GPT‑4o und GPT‑5 (nur das Chatmodell, nicht die erweiterte Reasoning‑Variante) gingen stark auseinander. Man habe unterschätzt, dass GPT-4o teils bevorzugt wird, obwohl GPT-5 "auf die meisten Arten" besser sei. GPT-4o wird wieder angeboten (siehe unten).
Langfristig wolle OpenAI mehr Möglichkeiten für individuelle Anpassungen schaffen, da kein einzelnes Modell für alle Nutzer gleich gut funktioniere. Kurzfristig liege der Fokus darauf, den Rollout abzuschließen und die Stabilität zu erhöhen. Anschließend wolle man das Modell wärmer gestalten. Eine wirklich personalisierte Steuerung werde länger dauern.
Altman spricht zudem von einer gravierenden Kapazitätsherausforderung in der kommenden Woche. Man arbeite mit Hochdruck an Optimierungen, werde aber offenlegen, wie über notwendige Kompromisse entschieden wird.
OpenAI bestätigt, dass GPT‑5 nun zu 100 Prozent bei allen Plus‑, Pro‑, Team‑ und Free‑Usern ausgerollt ist. Für Plus‑ und Team‑Nutzer wurden die verdoppelten Nutzungslimits für das Wochenende vollständig umgesetzt. Dabei handelt es sich offenbar nur um eine temporäre Erhöhung. Das aktuelle Limit soll "in naher Zukunft" wieder greifen.
Ab nächster Woche sollen Mini‑Versionen von GPT‑5 und GPT‑5 Thinking zum Einsatz kommen, sobald Limits erreicht sind, bis das Kontingent wieder zurückgesetzt wird. GPT‑5 Thinking und GPT‑5 Pro sind jetzt direkt im Haupt‑Modellwähler verfügbar.
Ursprünglicher Artikel vom 8. August 2025:
OpenAI bessert nach: GPT-5 soll "ab heute" intelligenter wirken
OpenAI adressiert Probleme beim GPT-5-Rollout und kündigt kurzfristige Kapazitäts-, Qualitäts- und UI-Änderungen an. Plus-Nutzer sollen höhere Limits erhalten, ältere Modelle wie 4o bleiben vorerst wählbar.
OpenAI reagiert auf Startschwierigkeiten beim Rollout von GPT-5 und verspricht kurzfristige Verbesserungen bei Kapazität, Qualität und Nutzeroberfläche. Laut OpenAI-CEO Sam Altman bei X sollen die Rate Limits für GPT-5 bei ChatGPT Plus verdoppelt werden, sobald die Einführung abgeschlossen ist (Update: Die Verdopplung ist nur temporär).
Außerdem bleibt es Plus-Nutzern weiterhin möglich, das Vorgängermodell 4o auszuwählen. Die Nutzung der sogenannten "Legacy"-Modelle werde beobachtet, um zu entscheiden, wie lange sie noch verfügbar bleiben, so Altman in seinen Updates bei X.
Für den ChatGPT-Plus-Plan gilt derzeit: Nutzer können bis zu 100 Nachrichten alle drei Stunden senden. Nach Erreichen dieses Limits wird automatisch auf eine Mini-Version des Modells umgeschaltet, bis das Limit wieder zurückgesetzt ist. Für GPT-5-Thinking gilt ein Nutzungslimit von maximal 200 Nachrichten pro Woche. Das automatische Umschalten von GPT-5 auf GPT-5-Thinking wird nicht auf dieses Wochenlimit angerechnet.
Beim wahrgenommenen Leistungsniveau stellt Altman eine sofortige Verbesserung in Aussicht: GPT-5 solle "ab heute smarter" wirken. Zuvor habe ein Ausfall des automatischen Modellumschalters ("Autoswitcher") dazu geführt, dass GPT-5 über einen Teil des Tages "viel dümmer" erschien. Der Autoswitcher entscheidet, welche GPT-5-Variante für eine bestimmte Anfrage eingesetzt wird.
Zudem nimmt OpenAI Anpassungen an der Entscheidungslogik vor, mit der das System das jeweils am besten geeignete Modell auswählt. Dadurch sollen künftig häufiger die richtigen Modelle für die jeweiligen Anfragen verwendet werden.
OpenAI weicht das Routing auf
Altman kündigt zudem an, transparenter zu machen, welches Modell eine Anfrage bearbeitet. Die Benutzeroberfläche soll zudem so angepasst werden, dass das manuelle Auslösen von "Thinking" für Nutzer einfacher wird. Details zum genauen Umfang und Zeitpunkt dieser Änderungen nennt Altman in den X-Updates nicht.
Diese Schritte sind ein Indiz dafür, dass OpenAI den eigenen Routing-Ansatz bereits aufweicht. Dieser Modus ist am ehesten für Einsteiger gedacht, die sich nicht mit der Modellauswahl beschäftigen wollen. Allerdings kann das automatische Routing auch dazu führen, dass Prompts weniger zuverlässig beantwortet werden oder das falsche Modell ausgewählt wird – was zu zusätzlicher Unsicherheit bei ohnehin schon instabilen LLM-Ausgaben führen kann.
Längerer Rollout, doppelte API-Last
Die Einführung für alle Nutzer verzögert sich, wie Altman mitteilt. Es handele sich um eine "massive" Änderung im großen Maßstab. Allein der Traffic über die Entwicklerschnittstelle (API) habe sich in den vergangenen 24 Stunden etwa verdoppelt.
Dass es beim gleichzeitigen Ausrollen vieler Änderungen zu "Holprigkeiten" kommen würde, sei erwartbar gewesen; der Start sei allerdings "etwas holpriger" verlaufen als erhofft. OpenAI arbeite weiter an der Stabilität und nehme das Nutzerfeedback auf.
Wer weiter auf die alten ChatGPT-Modelle setzen möchte, kann in den Einstellungen den Zugriff auf sogenannte "Legacy"-Modelle wieder manuell aktivieren. Dann steht unter "Andere Modelle" die gewohnte Auswahl bereit. Die GPT-5-Varianten "Thinking" und "Pro" lassen sich allerdings nur im Pro-Account gezielt anwählen.