Runway Gen-4.5 beansprucht Benchmark-Führung vor Sora und Veo
Kurz & Knapp
- Runway stellt mit Gen-4.5 ein Videomodell vor, das in Benchmarks (noch) führend ist und Konkurrenten wie Google und OpenAI übertrifft.
- Das Modell wurde mit Nvidia entwickelt und soll physikalische Zusammenhänge besser simulieren.
- Logikfehler und Probleme mit Objektpermanenz bleiben laut Runway weiterhin bestehen.
Runway stellt mit Gen-4.5 sein neuestes Videomodell vor. Laut Herstellerangaben und ausgewählten Benchmarks übertrifft es die Konkurrenz, kämpft aber weiterhin mit grundlegenden Logikfehlern der Videogenerierung.
Das US-Start-up Runway hat Runway Gen-4.5 angekündigt. Das Modell soll laut Unternehmen präziser auf Nutzeranweisungen reagieren und visuell konsistenter arbeiten als der Vorgänger.
Runway stützt sich bei der Vorstellung primär auf den "Artificial Analysis Text to Video"-Benchmark. Mit einem Elo-Score von 1247 belegt Gen-4.5 dort (Stand 30. November 2025) den ersten Platz. Damit liegt es in dieser Metrik knapp vor Googles Veo 3 (1226) und Klings Version 2.5 (1225). Auch das im Benchmark gelistete "Sora 2 Pro" von OpenAI landet mit 1206 Punkten hinter dem neuen Runway-Modell.
Training auf Nvidia-Hardware
Technisch soll Gen-4.5 physikalische Zusammenhänge besser simulieren als bisherige Modelle. Entwickelt wurde das Modell in enger Kooperation mit Nvidia. Training und die Inferenz laufen auf GPUs der Hopper- und Blackwell-Serien.
Trotz der angekündigten Verbesserungen bleiben typische Schwächen generativer Video-KI bestehen: Runway räumt ein, dass Gen-4.5 weiterhin Probleme mit der Kausalität hat – beispielsweise öffnen sich Türen im Video teils, bevor eine Klinke gedrückt wird. Auch die Objektpermanenz bleibt eine Herausforderung; Gegenstände können verschwinden, nachdem sie kurzzeitig verdeckt waren. Zudem neigt das Modell zu einem "Success Bias": Aktionen gelingen im Video unverhältnismäßig oft, selbst wenn sie (wie ein schlecht gezielter Schuss) eigentlich scheitern müssten.
Diese Fehlerquellen sind laut Runway besonders für die Entwicklung von verlässlichen "World Models" relevant, an deren Lösung man weiter arbeite.
Das Modell wird laut Runway in den kommenden Tagen für alle Nutzer verfügbar gemacht. Parallel dazu hat auch Kling ein neues Modell veröffentlicht: Kling Video O1, laut dem Unternehmen ein leistungsstarkes, multimodales Videomodell.
KI-News ohne Hype – von Menschen kuratiert
Mit dem THE‑DECODER‑Abo liest du werbefrei und wirst Teil unserer Community: Diskutiere im Kommentarsystem, erhalte unseren wöchentlichen KI‑Newsletter, 6× im Jahr den „KI Radar“‑Frontier‑Newsletter mit den neuesten Entwicklungen aus der Spitze der KI‑Forschung, bis zu 25 % Rabatt auf KI Pro‑Events und Zugriff auf das komplette Archiv der letzten zehn Jahre.
Jetzt abonnieren