Update vom 5. März 2025:
Der nutzungsbasierte Ansatz von OpenAI wird konkreter: CEO Sam Altman stellt bei X ein Konzept vor, bei dem die aktuellen 20-Dollar-Tarife in Credits umgewandelt würden, die dann bei den einzelnen Features wie Deep Research, o1, GPT-4.5 und so weiter ausgegeben werden. Wenn die Credits leer sind, kann man neue kaufen.
Altman stellt diesen Ansatz zur Diskussion, das Feedback bei X fällt allerdings eher verhalten aus: Zahlreiche Nutzer warnen vor einer "Credit-Anxiety", bei der Anwender aus Sorge um ihre verbleibenden Credits den Dienst weniger nutzen würden.
"Sobald man alles auf granularer Basis abrechnet, hinterfragen Nutzer jeden Einsatz und kommen oft zu dem Schluss, dass es nicht wert ist, ihre wertvollen Credits zu verschwenden", schreibt etwa X-Nutzer Jeffrey Emanuel.
Van Mendoza kritisiert bei X die zusätzliche Komplexität: "Menschen wollen nicht in 'Credits' denken oder ihre KI-Nutzung wie ein Arcade-Token-System mikromanagen." Andere Nutzer bemängeln, dass nicht genutzte Credits am Monatsende verfallen könnten.
Es gibt auch konstruktive Vorschläge aus der Community: So empfehlen mehrere Nutzer, die aktuellen Tarife und Limits beizubehalten und lediglich eine Top-up-Option für zusätzliche Nutzung einzuführen. Andere fordern einen mittleren Preispunkt zwischen 50 und 70 Dollar.
Auch die komplette Abschaffung der kostenlosen Nutzung zugunsten zahlender Kunden wird gefordert. Die dadurch freiwerdenden GPU-Ressourcen sollten den Plus- und Pro-Nutzern zugutekommen, die einen wichtigen Teil zu OpenAIs Umsatz beitragen.
Ursprünglicher Artikel vom 6. Januar 2025:
OpenAI-CEO Altman erwägt nutzungsabhängige Gebühren für ChatGPT
Nach kostenlosem Zugang und monatlichen Festpreisen könnte ChatGPT in Zukunft nutzungsabhängig abgerechnet werden. OpenAI CEO Sam Altman will dabei Fehler aus der Internet-Frühzeit vermeiden.
Die Preisgestaltung von ChatGPT folgte bisher keiner ausgeklügelten Strategie, räumt OpenAI-CEO Sam Altman gegenüber Bloomberg ein. Der Chatbot startete zunächst kostenlos, bis die hohe Nutzung das Unternehmen zu einem Bezahlmodell zwang.
"Wir haben zwei Preise getestet, 20 und 42 Dollar", sagt Altman. "Die Menschen fanden 42 Dollar etwas zu viel. Mit 20 Dollar waren sie zufrieden." Diese Entscheidung sei Ende 2022 ohne aufwendige Marktstudien gefallen.
Nun prüft OpenAI flexiblere Preismodelle. "Viele Kunden wünschen sich nutzungsbasierte Preise", erklärt Altman. "In manchen Monaten möchten sie vielleicht 1.000 Dollar für Rechenleistung ausgeben, in anderen sehr wenig." Eine zeitbasierte Abrechnung, wie sie etwa AOL in den Anfängen des Internets praktizierte, lehnt Altman jedoch ab.
Altmans Aussagen dürften im Kontext der neuen o-Modelle stehen, die mit mehr Computerleistung bessere Ergebnisse erzielen können. Diese höhere Computerleistung verursacht allerdings auch mehr Kosten, die das Unternehmen weiterreichen wird.
Mit ChatGPT Pro bietet OpenAI bereits ein Premium-Segment mit einem fähigeren o-Modell und mehr Zugriff auf Rechenleistung. Der Preis liegt bei 200 US-Dollar pro Monat, rund das Zehnfache des ChatGPT-Premium-Preises.
Dennoch macht OpenAI laut Altman (via X) derzeit Verluste mit ChatGPT Pro. Er habe sich persönlich für diesen Preis entschieden, weil er davon ausgegangen sei, dass OpenAI damit Geld verdiene, so Altman.

AGI und Superintelligenz sind weiter OpenAIs Priorität
Trotz des derzeit starken Produktfokus von OpenAI betont Altman weiter das übergeordnete Ziel der KI-Firma: die Entwicklung einer Künstlichen Allgemeinen Intelligenz (AGI) und von Superintelligenz.
OpenAI habe dafür bewusst die Forschungsabteilung räumlich vom Rest des Unternehmens getrennt. Zwar sei dies zunächst aus logistischen Gründen geschehen, und die Teams würden wieder in einem Campus zusammengeführt. Aber ein eigener Bereich für die Forschung diene auch dem Schutz der Kernforschung, wie Altman erklärt.
Als AGI-Schwelle definiert Altman den Punkt, an dem KI-Systeme die Arbeit hochqualifizierter Menschen übernehmen könnten. Wenn man eine KI als Remote-Mitarbeiter einstellen könnte, um ein großartiger Softwareentwickler zu sein, würden viele Leute wahrscheinlich sagen, das sei AGI-ähnlich, so der OpenAI-CEO. Er hält ein solches System in den nächsten vier Jahren für möglich.
Der Begriff "AGI" sei jedoch sehr schwammig geworden, räumt Altman ein, und auf viele Fragen gebe es noch keine Antworten, etwa nach dem Grad der Autonomie. Wenn bestimmte Meilensteine erreicht seien, würden die Ziele weiter nach vorn verlegt.
OpenAI spreche daher öffentlich über KI-Level, die den Fortschritt besser darstellen sollen. Ein möglicher Gradmesser für eine Superintelligenz sei die Beschleunigung des wissenschaftlichen Fortschritts.
Im vergangenen Jahr geriet OpenAI im Kontext der KI-Sicherheit insbesondere in die interne Kritik. Derzeit ist es laut Altman so, dass es eine interne Sicherheitsberatungsgruppe (SAG) für technische Systemstudien, ein Sicherheits- und Sicherheitskomitee (SSC) auf Vorstandsebene und ein gemeinsames Deployment Safety Board (DSB) mit Microsoft gibt.
Altman räumt ein, dass diese Struktur auch intern für Verwirrung sorgt. Das Unternehmen arbeite daran, die Prozesse weiter zu verschlanken.