OpenAI arbeitet weiter an GPT-5. Das neue Sprachmodell soll vorhandene Funktionen verbessern und Werkzeuge wie Codex, Operator und Memory stärker miteinander verknüpfen. Ein Update für den Operator-Agenten ist ebenfalls geplant.
Jerry Tworek, Vice President of Research bei OpenAI, beschreibt GPT-5 im Rahmen einer Reddit-Fragestunde als das nächste "Foundational Model". Es sei dazu gedacht, "einfach alles, was unsere Modelle derzeit können, besser zu machen – und mit weniger Modellwechseln".
Ziel sei es, die bislang notwendige manuelle Nutzung verschiedener Modelle und Werkzeuge zu verringern. Laut Tworek sollen das neue Code-Modell Codex, Deep Research, Operator und das Memory-System enger zusammenarbeiten, sodass sie sich für Nutzer wie ein einheitliches Werkzeug anfühlen.
Für den Bildschirm-Agenten Operator kündigt Tworek ein Update an. Das derzeit in der Forschungsphase befindliche Werkzeug kann bereits Aufgaben wie die Browser-Steuerung übernehmen, ist aber nicht verlässlich. Das Update, das laut Tworek "bald" erscheinen soll, könne Operator zu einem "sehr nützlichen Tool" machen, so Tworek.
OpenAIs leitender KI-Forscher äußert sich etwas zurückhaltender als bei früheren Aussagen des Unternehmens zu GPT-5. Statt davon zu sprechen, dass GPT-5 den Wechsel zwischen verschiedenen Modellen überflüssig mache, sagt er, Nutzer müssten "weniger wechseln". Noch im Februar hatte OpenAI angekündigt, dass GPT-5 die bislang getrennten GPT- und o-Modellreihen zusammenführen solle.
Im April folgte bereits die erste Kurskorrektur. Die vollständige Integration aller Komponenten in ein einziges Modell habe sich als schwieriger erwiesen als erwartet. Daher veröffentlichte OpenAI die Reasoning-Modelle o3 und o4-mini doch als eigenständige Modelle. GPT-5 wurde verschoben.
Tokenverbrauch steigt weiter – kein Ende in Sicht
Tworek beantwortete auch eine Frage zum steigenden Verbrauch sogenannter Tokens. Tokens sind die kleinsten Texteinheiten – etwa Wortbestandteile oder Satzzeichen –, mit denen KI-Modelle Informationen verarbeiten und generieren.
Ein Reddit-Nutzer hatte ein Szenario entworfen, in dem mehrere digitale Assistenten dauerhaft mit rund 100 Tokens pro Sekunde arbeiten. Sie könnten etwa Sensorwerte auslesen, E-Mails analysieren oder das Verhalten des Nutzers interpretieren. Die Frage lautete, ob dieser Trend an eine natürliche Grenze stoße oder ob der Tokenverbrauch weiter exponentiell ansteige, bis er dem Rechenausmaß heutiger CPU-Zyklen entspreche.
Tworek erklärt, der Tokenverbrauch bilde ein Gleichgewicht aus Nützlichkeit und Kosten. Mit jedem Jahr würden Tokens sowohl nützlicher als auch günstiger – entsprechend nehme ihr Einsatz zu. Ein Ende dieses Trends sei nicht absehbar. OpenAI investiere daher massiv in Infrastruktur, um die steigende Nachfrage zu bewältigen. Selbst wenn sich die Modelle nicht weiter verbesserten, könnten sie laut Tworek noch "erheblichen Nutzen" bringen.
Eine Verdrängung menschlicher Arbeit erwartet Tworek nicht: "Aus meiner Sicht wird es immer Arbeit geben, die nur Menschen tun können." Diese Arbeit werde sich verändern, aber nicht verschwinden. Der "letzte Job" könne darin bestehen, als KI-Überwacher zu prüfen, ob Systeme im Sinne der Menschheit handeln.
Benchmarks verlieren an Aussagekraft
Auf eine weitere Frage zur Vergleichbarkeit von GPT-Modellen mit Konkurrenzangeboten wie Claude oder Gemini sagte Tworek, klassische Benchmarks hätten kaum noch Aussagekraft. Sie spiegelten reale Nutzungsszenarien kaum wider und würden oft durch gezielte Optimierung beeinflusst.
Tworek bevorzugt daher konkrete Aufgaben zur Bewertung eines Modells. Nur so lasse sich feststellen, ob ein System reale Probleme lösen könne – oder nicht. Das Ziel von OpenAI sei es, die Wahl des richtigen Modells überflüssig zu machen, indem OpenAI den Nutzern das leistungsfähigste zur Verfügung stellt.