OpenAI bringt GPT-5.4 mini und nano: Schneller, fähiger, aber auch deutlich teurer
Kurz & Knapp
- OpenAI hat mit GPT-5.4 mini und nano zwei neue kompakte Modelle vorgestellt, die für Coding, Subagenten und Computersteuerung optimiert sind.
- OpenAI demonstriert eine Subagenten-Architektur in Codex, bei der ein größeres Modell wie GPT-5.4 Planung und Koordination übernimmt und einfachere Teilaufgaben an GPT-5.4 mini delegiert.
- Die Preise steigen gegenüber den Vorgängern deutlich: GPT-5.4 mini kostet 0,75 Dollar pro Million Input-Token (GPT-5 mini: 0,25 Dollar) und 4,50 Dollar pro Million Output-Token (GPT-5 mini: 2,00 Dollar). GPT-5.4 nano liegt beim Input beim Vierfachen und beim Output beim Dreifachen des Vorgängerpreises.
OpenAI veröffentlicht mit GPT-5.4 mini und nano zwei neue kompakte Modelle, die für Coding-Assistenten, Subagenten und Computersteuerung optimiert sind. Die Leistung nähert sich bei GPT-5.4 mini dem Vollmodell, die Preise steigen jedoch deutlich gegenüber den Vorgängern.
GPT-5.4 mini verbessere sich laut OpenAI gegenüber GPT-5 mini deutlich in den Bereichen Coding, Reasoning, multimodales Verständnis und Tool-Nutzung und laufe dabei mehr als doppelt so schnell. Auf mehreren Benchmarks nähere sich das Modell der Leistung des deutlich größeren GPT-5.4, etwa beim Coding-Benchmark SWE-Bench Pro (54.4 % vs. 57.7 %) und OSWorld-Verified (72.1 % vs. 75.0 %), der die Computernutzung misst.
| Benchmark | GPT-5.4 | GPT-5.4 mini | GPT-5.4 nano | GPT-5 mini |
|---|---|---|---|---|
| SWE-Bench Pro | 57.7 % | 54.4 % | 52.4 % | 45.7 % |
| Terminal-Bench 2.0 | 75.1 % | 60.0 % | 46.3 % | 38.2 % |
| Toolathlon | 54.6 % | 42.9 % | 35.5 % | 26.9 % |
| GPQA Diamond | 93.0 % | 88.0 % | 82.8 % | 81.6 % |
| OSWorld-Verified | 75.0 % | 72.1 % | 39.0 % | 42.0 % |
GPT-5.4 nano ist die kleinste und günstigste Variante. OpenAI empfiehlt sie für Klassifikation, Datenextraktion, Ranking und Coding-Subagenten, die einfachere unterstützende Aufgaben erledigen. Auch dieses Modell sei ein erhebliches Upgrade gegenüber GPT-5 nano.
Subagenten und Computersteuerung
Interessant ist die Subagenten-Architektur, die OpenAI in Codex demonstriert: Ein größeres Modell wie GPT-5.4 übernimmt Planung, Koordination und abschließende Bewertung, während es an GPT-5.4 mini oder nano Subagenten delegiert, die parallele Teilaufgaben erledigen.
Dazu gehören etwa das Durchsuchen einer Codebase, das Überprüfen großer Dateien oder die Verarbeitung von Begleitdokumenten. In Codex verbraucht GPT-5.4 mini laut OpenAI nur 30 Prozent des GPT-5.4-Kontingents, was die Kosten für einfachere Aufgaben auf etwa ein Drittel senken soll.
Das Mini-Modell ist laut OpenAI auch deutlich besser bei der Computersteuerung. GPT-5.4 mini erreicht auf dem OSWorld-Verified-Benchmark 72.1 Prozent und liegt damit nur knapp hinter dem Vollmodell GPT-5.4 mit 75.0 Prozent. GPT-5 mini kam hier lediglich auf 42.0 Prozent.
Coding
| Benchmark | GPT-5.4 | GPT-5.4 mini | GPT-5.4 nano | GPT-5 mini |
|---|---|---|---|---|
| SWE-bench Pro (Public) | 57.7 % | 54.4 % | 52.4 % | 45.7 % |
| Terminal-Bench 2.0 | 75.1 % | 60.0 % | 46.3 % | 38.2 % |
Tool-calling
| Benchmark | GPT-5.4 | GPT-5.4 mini | GPT-5.4 nano | GPT-5 mini |
|---|---|---|---|---|
| MCP Atlas | 67.2% | 57.7% | 56.1% | 47.6% |
| Toolathlon | 54.6% | 42.9% | 35.5% | 26.9% |
| τ2-bench (telecom) | 98.9% | 93.4% | 92.5% | 74.1% |
Intelligence
| Benchmark | GPT-5.4 | GPT-5.4 mini | GPT-5.4 nano | GPT-5 mini |
|---|---|---|---|---|
| GPQA Diamond | 93.0 % | 88.0 % | 82.8 % | 81.6 % |
| HLE w/ tool | 52.1 % | 41.5 % | 37.7 % | 31.6 % |
| HLE w/o tools | 39.8 % | 28.2 % | 24.3 % | 18.3 % |
MM / Vision / CUA
| Benchmark | GPT-5.4 | GPT-5.4 mini | GPT-5.4 nano | GPT-5 mini |
|---|---|---|---|---|
| OSWorld-Verified | 75.0 % | 72.1 % | 39.0 % | 42.0 % |
| MMMUPro w/ Python | 81.5 % | 78.0 % | 69.5 % | 74.1 % |
| MMMUPro | 81.2 % | 76.6 % | 66.1 % | 67.5 % |
| OmniDocBench 1.5 (no tools, niedriger ist besser) | 0.109 | 0.1263 | 0.2419 | 0.1791 |
Long context
| Benchmark | GPT-5.4 | GPT-5.4 mini | GPT-5.4 nano | GPT-5 mini |
|---|---|---|---|---|
| OpenAI MRCR v2 8-needle 64K–128K | 86.0 % | 47.7 % | 44. 2% | 35.1 % |
| OpenAI MRCR v2 8-needle 128K–256K | 79.3 % | 33.6 % | 33.1 % | 19.4 % |
| Graphwalks BFS 0K–128K | 93.1 % | 76.3 % | 73.4 % | 73.4 % |
| Graphwalks parents 0–128K (accuracy) | 89.8 % | 71.5 % | 50.8 % | 64.3 % |
Mehr Leistung, aber auch höhere Kosten als bei den Vorgängern
GPT-5.4 mini ist über die API, Codex und ChatGPT verfügbar und kostet 0,75 Dollar pro Million Eingabe-Token und 4,50 Dollar pro Million Ausgabe-Token. Nano gibt es nur über die API für 0,20 Dollar pro Million Eingabe-Token und 1,25 Dollar pro Million Ausgabe-Token. Beide Modelle unterstützen ein Kontextfenster von 400.000 Token.
Gegenüber den vorherigen Mini- und Nano-Modellen der GPT-5-Serie ist das ein deutlicher Aufpreis. GPT-5 mini kostete laut OpenAIs Preisübersicht 0,25 US-Dollar pro Million Input-Token und 2,00 US-Dollar pro Million Output-Token. GPT-5 nano lag bei 0,05 US-Dollar Input und 0,40 US-Dollar Output pro Million Token.
| Modell | Input (pro 1 Mio. Token) | Output (pro 1 Mio. Token) | Aufpreis beim Input | Aufpreis beim Output |
|---|---|---|---|---|
| GPT-5.4 mini | 0,75 Dollar | 4,50 Dollar | 3,0x | 2,25x |
| GPT-5.4 nano | 0,20 Dollar | 1,25 Dollar | 4,0x | 3,125x |
| GPT-5 mini | 0,25 Dollar | 2,00 Dollar | – | – |
| GPT-5 nano | 0,05 Dollar | 0,40 Dollar | – | – |
OpenAI rechtfertigt den Aufpreis mit der gestiegenen Leistung, die näher an den großen Modellen ist; die wiederum sind deutlich teurer.
KI-News ohne Hype – von Menschen kuratiert
Mit dem THE‑DECODER‑Abo liest du werbefrei und wirst Teil unserer Community: Diskutiere im Kommentarsystem, erhalte unseren wöchentlichen KI‑Newsletter, 6× im Jahr den „KI Radar"‑Frontier‑Newsletter mit den neuesten Entwicklungen aus der Spitze der KI‑Forschung, bis zu 25 % Rabatt auf KI Pro‑Events und Zugriff auf das komplette Archiv der letzten zehn Jahre.
Jetzt abonnieren