Inhalt
summary Zusammenfassung

OpenAI arbeitet weiter an GPT-5. Das neue Sprachmodell soll vorhandene Funktionen verbessern und Werkzeuge wie Codex, Operator und Memory stärker miteinander verknüpfen. Ein Update für den Operator-Agenten ist ebenfalls geplant.

Anzeige

Jerry Tworek, Vice President of Research bei OpenAI, beschreibt GPT-5 im Rahmen einer Reddit-Fragestunde als das nächste "Foundational Model". Es sei dazu gedacht, "einfach alles, was unsere Modelle derzeit können, besser zu machen – und mit weniger Modellwechseln".

Ziel sei es, die bislang notwendige manuelle Nutzung verschiedener Modelle und Werkzeuge zu verringern. Laut Tworek sollen das neue Code-Modell Codex, Deep Research, Operator und das Memory-System enger zusammenarbeiten, sodass sie sich für Nutzer wie ein einheitliches Werkzeug anfühlen.

Für den Bildschirm-Agenten Operator kündigt Tworek ein Update an. Das derzeit in der Forschungsphase befindliche Werkzeug kann bereits Aufgaben wie die Browser-Steuerung übernehmen, ist aber nicht verlässlich. Das Update, das laut Tworek "bald" erscheinen soll, könne Operator zu einem "sehr nützlichen Tool" machen, so Tworek.

Anzeige
Anzeige

OpenAIs leitender KI-Forscher äußert sich etwas zurückhaltender als bei früheren Aussagen des Unternehmens zu GPT-5. Statt davon zu sprechen, dass GPT-5 den Wechsel zwischen verschiedenen Modellen überflüssig mache, sagt er, Nutzer müssten "weniger wechseln". Noch im Februar hatte OpenAI angekündigt, dass GPT-5 die bislang getrennten GPT- und o-Modellreihen zusammenführen solle.

Im April folgte bereits die erste Kurskorrektur. Die vollständige Integration aller Komponenten in ein einziges Modell habe sich als schwieriger erwiesen als erwartet. Daher veröffentlichte OpenAI die Reasoning-Modelle o3 und o4-mini doch als eigenständige Modelle. GPT-5 wurde verschoben.

Tokenverbrauch steigt weiter – kein Ende in Sicht

Tworek beantwortete auch eine Frage zum steigenden Verbrauch sogenannter Tokens. Tokens sind die kleinsten Texteinheiten – etwa Wortbestandteile oder Satzzeichen –, mit denen KI-Modelle Informationen verarbeiten und generieren.

Ein Reddit-Nutzer hatte ein Szenario entworfen, in dem mehrere digitale Assistenten dauerhaft mit rund 100 Tokens pro Sekunde arbeiten. Sie könnten etwa Sensorwerte auslesen, E-Mails analysieren oder das Verhalten des Nutzers interpretieren. Die Frage lautete, ob dieser Trend an eine natürliche Grenze stoße oder ob der Tokenverbrauch weiter exponentiell ansteige, bis er dem Rechenausmaß heutiger CPU-Zyklen entspreche.

Tworek erklärt, der Tokenverbrauch bilde ein Gleichgewicht aus Nützlichkeit und Kosten. Mit jedem Jahr würden Tokens sowohl nützlicher als auch günstiger – entsprechend nehme ihr Einsatz zu. Ein Ende dieses Trends sei nicht absehbar. OpenAI investiere daher massiv in Infrastruktur, um die steigende Nachfrage zu bewältigen. Selbst wenn sich die Modelle nicht weiter verbesserten, könnten sie laut Tworek noch "erheblichen Nutzen" bringen.

Empfehlung

Eine Verdrängung menschlicher Arbeit erwartet Tworek nicht: "Aus meiner Sicht wird es immer Arbeit geben, die nur Menschen tun können." Diese Arbeit werde sich verändern, aber nicht verschwinden. Der "letzte Job" könne darin bestehen, als KI-Überwacher zu prüfen, ob Systeme im Sinne der Menschheit handeln.

Benchmarks verlieren an Aussagekraft

Auf eine weitere Frage zur Vergleichbarkeit von GPT-Modellen mit Konkurrenzangeboten wie Claude oder Gemini sagte Tworek, klassische Benchmarks hätten kaum noch Aussagekraft. Sie spiegelten reale Nutzungsszenarien kaum wider und würden oft durch gezielte Optimierung beeinflusst.

Tworek bevorzugt daher konkrete Aufgaben zur Bewertung eines Modells. Nur so lasse sich feststellen, ob ein System reale Probleme lösen könne – oder nicht. Das Ziel von OpenAI sei es, die Wahl des richtigen Modells überflüssig zu machen, indem OpenAI den Nutzern das leistungsfähigste zur Verfügung stellt.

Anzeige
Anzeige
Community beitreten
Kommt in die DECODER-Community bei Discord,Reddit, Twitter und Co. - wir freuen uns auf euch!
Unterstütze unsere unabhängige, frei zugängliche Berichterstattung. Jeder Betrag hilft und sichert unsere Zukunft. Jetzt unterstützen:
Banküberweisung
Zusammenfassung
  • OpenAI arbeitet weiter an GPT-5, das vorhandene Funktionen verbessern und Werkzeuge wie Codex, Operator und Memory stärker miteinander verknüpfen soll.
  • Ziel ist es, die Nutzung mehrerer Modelle und Tools für Anwender zu vereinfachen. Ein Update für den Operator-Agenten ist ebenfalls geplant, um diesen zu einem digitalen Assistenten für den Desktop auszubauen.
  • Jerry Tworek von OpenAI betont, dass Nutzer künftig "weniger Modellwechsel" benötigen sollen, sodass sich verschiedene Komponenten wie ein einheitliches Werkzeug anfühlen. Das ursprünglich im Februar genannte Ziel "keine Modellwechsel" ist damit offenbar vom Tisch.
Quellen
Online-Journalist Matthias ist Gründer und Herausgeber von THE DECODER. Er ist davon überzeugt, dass Künstliche Intelligenz die Beziehung zwischen Mensch und Computer grundlegend verändern wird.
Community beitreten
Kommt in die DECODER-Community bei Discord,Reddit, Twitter und Co. - wir freuen uns auf euch!