Anzeige
Skip to content

OpenAI bringt GPT-5.4 mini und nano: Schneller, fähiger, aber auch deutlich teurer

Image description
Nano Banana Pro prompted by THE DECODER

Kurz & Knapp

  • OpenAI hat mit GPT-5.4 mini und nano zwei neue kompakte Modelle vorgestellt, die für Coding, Subagenten und Computersteuerung optimiert sind.
  • OpenAI demonstriert eine Subagenten-Architektur in Codex, bei der ein größeres Modell wie GPT-5.4 Planung und Koordination übernimmt und einfachere Teilaufgaben an GPT-5.4 mini delegiert.
  • Die Preise steigen gegenüber den Vorgängern deutlich: GPT-5.4 mini kostet 0,75 Dollar pro Million Input-Token (GPT-5 mini: 0,25 Dollar) und 4,50 Dollar pro Million Output-Token (GPT-5 mini: 2,00 Dollar). GPT-5.4 nano liegt beim Input beim Vierfachen und beim Output beim Dreifachen des Vorgängerpreises.

OpenAI veröffentlicht mit GPT-5.4 mini und nano zwei neue kompakte Modelle, die für Coding-Assistenten, Subagenten und Computersteuerung optimiert sind. Die Leistung nähert sich bei GPT-5.4 mini dem Vollmodell, die Preise steigen jedoch deutlich gegenüber den Vorgängern.

GPT-5.4 mini verbessere sich laut OpenAI gegenüber GPT-5 mini deutlich in den Bereichen Coding, Reasoning, multimodales Verständnis und Tool-Nutzung und laufe dabei mehr als doppelt so schnell. Auf mehreren Benchmarks nähere sich das Modell der Leistung des deutlich größeren GPT-5.4, etwa beim Coding-Benchmark SWE-Bench Pro (54.4 % vs. 57.7 %) und OSWorld-Verified (72.1 % vs. 75.0 %), der die Computernutzung misst.

Benchmark GPT-5.4 GPT-5.4 mini GPT-5.4 nano GPT-5 mini
SWE-Bench Pro 57.7 % 54.4 % 52.4 % 45.7 %
Terminal-Bench 2.0 75.1 % 60.0 % 46.3 % 38.2 %
Toolathlon 54.6 % 42.9 % 35.5 % 26.9 %
GPQA Diamond 93.0 % 88.0 % 82.8 % 81.6 %
OSWorld-Verified 75.0 % 72.1 % 39.0 % 42.0 %

GPT-5.4 nano ist die kleinste und günstigste Variante. OpenAI empfiehlt sie für Klassifikation, Datenextraktion, Ranking und Coding-Subagenten, die einfachere unterstützende Aufgaben erledigen. Auch dieses Modell sei ein erhebliches Upgrade gegenüber GPT-5 nano.

Subagenten und Computersteuerung

Interessant ist die Subagenten-Architektur, die OpenAI in Codex demonstriert: Ein größeres Modell wie GPT-5.4 übernimmt Planung, Koordination und abschließende Bewertung, während es an GPT-5.4 mini oder nano Subagenten delegiert, die parallele Teilaufgaben erledigen.

Anzeige
DEC_D_Incontent-1

Dazu gehören etwa das Durchsuchen einer Codebase, das Überprüfen großer Dateien oder die Verarbeitung von Begleitdokumenten. In Codex verbraucht GPT-5.4 mini laut OpenAI nur 30 Prozent des GPT-5.4-Kontingents, was die Kosten für einfachere Aufgaben auf etwa ein Drittel senken soll.

Das Mini-Modell ist laut OpenAI auch deutlich besser bei der Computersteuerung. GPT-5.4 mini erreicht auf dem OSWorld-Verified-Benchmark 72.1 Prozent und liegt damit nur knapp hinter dem Vollmodell GPT-5.4 mit 75.0 Prozent. GPT-5 mini kam hier lediglich auf 42.0 Prozent.

Coding

Benchmark GPT-5.4 GPT-5.4 mini GPT-5.4 nano GPT-5 mini
SWE-bench Pro (Public) 57.7 % 54.4 % 52.4 % 45.7 %
Terminal-Bench 2.0 75.1 % 60.0 % 46.3 % 38.2 %

Tool-calling

Anzeige
DEC_D_Incontent-2

Benchmark GPT-5.4 GPT-5.4 mini GPT-5.4 nano GPT-5 mini
MCP Atlas 67.2% 57.7% 56.1% 47.6%
Toolathlon 54.6% 42.9% 35.5% 26.9%
τ2-bench (telecom) 98.9% 93.4% 92.5% 74.1%

Intelligence

Benchmark GPT-5.4 GPT-5.4 mini GPT-5.4 nano GPT-5 mini
GPQA Diamond 93.0 % 88.0 % 82.8 % 81.6 %
HLE w/ tool 52.1 % 41.5 % 37.7 % 31.6 %
HLE w/o tools 39.8 % 28.2 % 24.3 % 18.3 %

MM / Vision / CUA

Benchmark GPT-5.4 GPT-5.4 mini GPT-5.4 nano GPT-5 mini
OSWorld-Verified 75.0 % 72.1 % 39.0 % 42.0 %
MMMUPro w/ Python 81.5 % 78.0 % 69.5 % 74.1 %
MMMUPro 81.2 % 76.6 % 66.1 % 67.5 %
OmniDocBench 1.5 (no tools, niedriger ist besser) 0.109 0.1263 0.2419 0.1791

Long context

Benchmark GPT-5.4 GPT-5.4 mini GPT-5.4 nano GPT-5 mini
OpenAI MRCR v2 8-needle 64K–128K 86.0 % 47.7 % 44. 2% 35.1 %
OpenAI MRCR v2 8-needle 128K–256K 79.3 % 33.6 % 33.1 % 19.4 %
Graphwalks BFS 0K–128K 93.1 % 76.3 % 73.4 % 73.4 %
Graphwalks parents 0–128K (accuracy) 89.8 % 71.5 % 50.8 % 64.3 %

Mehr Leistung, aber auch höhere Kosten als bei den Vorgängern

GPT-5.4 mini ist über die API, Codex und ChatGPT verfügbar und kostet 0,75 Dollar pro Million Eingabe-Token und 4,50 Dollar pro Million Ausgabe-Token. Nano gibt es nur über die API für 0,20 Dollar pro Million Eingabe-Token und 1,25 Dollar pro Million Ausgabe-Token. Beide Modelle unterstützen ein Kontextfenster von 400.000 Token.

Gegenüber den vorherigen Mini- und Nano-Modellen der GPT-5-Serie ist das ein deutlicher Aufpreis. GPT-5 mini kostete laut OpenAIs Preisübersicht 0,25 US-Dollar pro Million Input-Token und 2,00 US-Dollar pro Million Output-Token. GPT-5 nano lag bei 0,05 US-Dollar Input und 0,40 US-Dollar Output pro Million Token.

Modell Input (pro 1 Mio. Token) Output (pro 1 Mio. Token) Aufpreis beim Input Aufpreis beim Output
GPT-5.4 mini 0,75 Dollar 4,50 Dollar 3,0x 2,25x
GPT-5.4 nano 0,20 Dollar 1,25 Dollar 4,0x 3,125x
GPT-5 mini 0,25 Dollar 2,00 Dollar
GPT-5 nano 0,05 Dollar 0,40 Dollar

OpenAI rechtfertigt den Aufpreis mit der gestiegenen Leistung, die näher an den großen Modellen ist; die wiederum sind deutlich teurer.

KI-News ohne Hype – von Menschen kuratiert

Mit dem THE‑DECODER‑Abo liest du werbefrei und wirst Teil unserer Community: Diskutiere im Kommentarsystem, erhalte unseren wöchentlichen KI‑Newsletter, 6× im Jahr den „KI Radar"‑Frontier‑Newsletter mit den neuesten Entwicklungen aus der Spitze der KI‑Forschung, bis zu 25 % Rabatt auf KI Pro‑Events und Zugriff auf das komplette Archiv der letzten zehn Jahre.

Quelle: OpenAI