Nach kostenlosem Zugang und monatlichen Festpreisen könnte ChatGPT in Zukunft nutzungsabhängig abgerechnet werden. OpenAI CEO Sam Altman will dabei Fehler aus der Internet-Frühzeit vermeiden.
Die Preisgestaltung von ChatGPT folgte bisher keiner ausgeklügelten Strategie, räumt OpenAI-CEO Sam Altman gegenüber Bloomberg ein. Der Chatbot startete zunächst kostenlos, bis die hohe Nutzung das Unternehmen zu einem Bezahlmodell zwang.
"Wir haben zwei Preise getestet, 20 und 42 Dollar", sagt Altman. "Die Menschen fanden 42 Dollar etwas zu viel. Mit 20 Dollar waren sie zufrieden." Diese Entscheidung sei Ende 2022 ohne aufwendige Marktstudien gefallen.
Nun prüft OpenAI flexiblere Preismodelle. "Viele Kunden wünschen sich nutzungsbasierte Preise", erklärt Altman. "In manchen Monaten möchten sie vielleicht 1.000 Dollar für Rechenleistung ausgeben, in anderen sehr wenig." Eine zeitbasierte Abrechnung, wie sie etwa AOL in den Anfängen des Internets praktizierte, lehnt Altman jedoch ab.
Altmans Aussagen dürften im Kontext der neuen o-Modelle stehen, die mit mehr Computerleistung bessere Ergebnisse erzielen können. Diese höhere Computerleistung verursacht allerdings auch mehr Kosten, die das Unternehmen weiterreichen wird.
Mit ChatGPT Pro bietet OpenAI bereits ein Premium-Segment mit einem fähigeren o-Modell und mehr Zugriff auf Rechenleistung. Der Preis liegt bei 200 US-Dollar pro Monat, rund das Zehnfache des ChatGPT-Premium-Preises.
Dennoch macht OpenAI laut Altman (via X) derzeit Verluste mit ChatGPT Pro. Er habe sich persönlich für diesen Preis entschieden, weil er davon ausgegangen sei, dass OpenAI damit Geld verdiene, so Altman.
AGI und Superintelligenz sind weiter OpenAIs Priorität
Trotz des derzeit starken Produktfokus von OpenAI betont Altman weiter das übergeordnete Ziel der KI-Firma: die Entwicklung einer Künstlichen Allgemeinen Intelligenz (AGI) und von Superintelligenz.
OpenAI habe dafür bewusst die Forschungsabteilung räumlich vom Rest des Unternehmens getrennt. Zwar sei dies zunächst aus logistischen Gründen geschehen, und die Teams würden wieder in einem Campus zusammengeführt. Aber ein eigener Bereich für die Forschung diene auch dem Schutz der Kernforschung, wie Altman erklärt.
Als AGI-Schwelle definiert Altman den Punkt, an dem KI-Systeme die Arbeit hochqualifizierter Menschen übernehmen könnten. Wenn man eine KI als Remote-Mitarbeiter einstellen könnte, um ein großartiger Softwareentwickler zu sein, würden viele Leute wahrscheinlich sagen, das sei AGI-ähnlich, so der OpenAI-CEO. Er hält ein solches System in den nächsten vier Jahren für möglich.
Der Begriff "AGI" sei jedoch sehr schwammig geworden, räumt Altman ein, und auf viele Fragen gebe es noch keine Antworten, etwa nach dem Grad der Autonomie. Wenn bestimmte Meilensteine erreicht seien, würden die Ziele weiter nach vorn verlegt.
OpenAI spreche daher öffentlich über KI-Level, die den Fortschritt besser darstellen sollen. Ein möglicher Gradmesser für eine Superintelligenz sei die Beschleunigung des wissenschaftlichen Fortschritts.
Im vergangenen Jahr geriet OpenAI im Kontext der KI-Sicherheit insbesondere in die interne Kritik. Derzeit ist es laut Altman so, dass es eine interne Sicherheitsberatungsgruppe (SAG) für technische Systemstudien, ein Sicherheits- und Sicherheitskomitee (SSC) auf Vorstandsebene und ein gemeinsames Deployment Safety Board (DSB) mit Microsoft gibt.
Altman räumt ein, dass diese Struktur auch intern für Verwirrung sorgt. Das Unternehmen arbeite daran, die Prozesse weiter zu verschlanken.