Anzeige
Skip to content

CES 2026: Nvidia verspricht fünffache KI-Leistung und zehnfach günstigere Inferenz mit Vera Rubin

Image description
Nvidia

Kurz & Knapp

  • Nvidia stellte auf der CES 2026 die Vera-Rubin-Plattform vor: Die neue Rubin-GPU soll dreimal so viel KI-Training-Compute und fünfmal so viel Inferenz-Compute liefern wie der Vorgänger Blackwell. Verfügbarkeit ab der zweiten Jahreshälfte 2026.
  • Mit Alpamayo veröffentlicht das Unternehmen neue Modelle für das autonome Fahren. Mercedes-Benz wird Nvidia DRIVE 2026 im neuen CLA einführen.
  • DLSS 4.5 bringt ein neues Transformer-Modell und einen 6x Multi-Frame-Generation-Modus für die RTX-50-Serie, der die Frame-Generierung automatisch an die Bildwiederholrate anpasst.

Der Chipkonzern stellt einen neuen KI-Supercomputer, Open-Source-Software für autonomes Fahren und verbessertes Grafik-Upscaling vor. Die Botschaft: Nvidia will die gesamte KI-Wertschöpfungskette beherrschen.

Jensen Huang nutzte die CES 2026 in Las Vegas für eine Demonstration der Nvidia-Ambitionen. Der CEO stellte gleich drei größere Produktlinien vor: die Vera-Rubin-KI-Computing-Plattform, eine Open-Source-Plattform für autonomes Fahren namens Alpamayo sowie die nächste Generation des Grafik-Upscalings DLSS 4.5.

Sechs Chips bilden einen KI-Supercomputer

Die Vera Rubin-Plattform, benannt nach der amerikanischen Astronomin, besteht aus sechs verschiedenen Chips: der Vera-CPU, der Rubin-GPU, dem NVLink-6-Switch, dem ConnectX-9 SuperNIC, dem BlueField-4 DPU und dem Spectrum-6 Ethernet Switch. Laut Nvidia befindet sich das System bereits in "voller Produktion" und soll ab der zweiten Jahreshälfte 2026 bei Partnern verfügbar sein.

Die Leistungsversprechen fallen beachtlich aus: Die Rubin-GPU soll dreimal so viel KI-Training-Compute und fünfmal so viel KI-Inferenz-Compute liefern wie der Vorgänger Blackwell. Das gilt allerdings nur für  NVFP4. Die dritte Generation der Transformer Engine mit hardwarebeschleunigter adaptiver Kompression trägt so zu diesen Gewinnen wesentlich bei, betonte CEO Huang in seiner Präsentation. Die Kosten für Inferenz-Token sollen so um das Zehnfache sinken. Für das Training großer Mixture-of-Experts-Modelle werde nur noch ein Viertel der GPUs benötigt.

Anzeige
DEC_D_Incontent-1

Das vollständige Vera Rubin NVL72-Rack erreicht laut Nvidia 260 Terabyte pro Sekunde Bandbreite - mehr als das gesamte Internet, wie das Unternehmen behauptet. Die sechste Generation von NVLink liefert pro GPU 3,6 Terabyte pro Sekunde.

Was "volle Produktion" tatsächlich bedeutet

Die Betonung, Vera Rubin sei in "voller Produktion", wirft allerdings Fragen auf. Laut Wired bleibt unklar, was Nvidia damit genau meint. Typischerweise beginnt die Produktion derart komplexer Chips bei niedrigem Volumen, während Tests und Validierung laufen.

Austin Lyons, Analyst bei Creative Strategists, ordnet die Ankündigung gegenüber Wired ein: "Diese CES-Ankündigung zu Rubin soll Investoren sagen: Wir sind auf Kurs." An der Wall Street kursierten Gerüchte über Verzögerungen beim Rubin-GPU. Der Hintergrund: 2024 musste Nvidia die Auslieferung der Blackwell-Chips wegen eines Designfehlers verzögern, der zu Überhitzung in Server-Racks führte.

Open-Source-Offensive beim autonomen Fahren

Mit der Alpamayo-Familie greift Nvidia zudem stärker in den Wettbewerb um selbstfahrende Autos ein. Die Plattform umfasst Open-Source-KI-Modelle, Simulationswerkzeuge und Fahrdatensätze. Im Zentrum steht ein sogenanntes Vision-Language-Action-Modell, das einen Chain-of-Thought-Ansatz nutzt: Das Fahrzeug soll komplexe Szenarien Schritt für Schritt durchdenken, ähnlich wie ein menschlicher Fahrer.

Anzeige
DEC_D_Incontent-2

Alpamayo 1 mit zehn Milliarden Parametern ist auf Hugging Face verfügbar. Ergänzt wird das Modell durch AlpaSim, ein Open-Source-Simulationsframework auf GitHub, sowie einen Datensatz mit mehr als 1.700 Stunden Fahrdaten.

Die sogenannten "Long-Tail"-Szenarien - seltene, aber kritische Fahrsituationen - gelten als eine der größten Herausforderungen für autonome Systeme. Traditionelle Architekturen trennen Wahrnehmung und Planung, was bei ungewöhnlichen Situationen Probleme bereiten kann. Nvidias Ansatz soll dies durch das Reasoning-Modell besser lösen können.

Die Alpamayo-Modelle sind dabei nicht für den direkten Einsatz im Fahrzeug gedacht. Sie dienen als große "Teacher-Modelle", die Entwickler für ihre eigenen AV-Stacks feintunen und destillieren können.

Mercedes-Benz bringt die Technologie auf die Straße

Die Technologie bleibt jedoch nicht im Labor: Mercedes-Benz wird Nvidias DRIVE-AV-Software noch 2026 im neuen CLA in den USA einführen. Das System basiert auf einer Dual-Stack-Architektur: Ein KI-End-to-End-Stack übernimmt die Kernfahrfunktionen, ein paralleler klassischer Sicherheits-Stack auf Basis des Nvidia-Halos-Systems soll Redundanz liefern.

Ein Journalist von The Verge konnte das System in einem Mercedes CLA testen. Während einer 40-minütigen Fahrt bewältigte das Fahrzeug demnach Ampeln, Vier-Wege-Stopps, doppelt geparkte Autos und ungeschützte Linksabbieger. Ali Kani, Vice President Automotive bei Nvidia, verglich das System mit Teslas Full Self-Driving. In Head-to-Head-Tests über lange Strecken sei die Anzahl der Fahrereingriffe vergleichbar.

Eine interessante Konstellation ergibt sich aus Nvidias Beziehung zu Tesla: Der Elektroautohersteller ist einer der größten Nvidia-Kunden und nutzt Zehntausende GPUs für das Training seiner KI-Modelle. Selbst wenn Tesla im Wettbewerb um autonomes Fahren gewinne, gewinne in gewissem Sinne auch Nvidia, merkt The Verge an.

Ambitionierte Roadmap bis 2028

Nvidias Automotive-Sparte ist im Konzernvergleich noch bescheiden. Im dritten Quartal machte sie 592 Millionen Dollar Umsatz bei einem Gesamtumsatz von 51,2 Milliarden Dollar - gerade einmal 1,2 Prozent.

Nvidia skizzierte dennoch einen detaillierten Zeitplan. In der ersten Jahreshälfte 2026 sollen Level-2-Funktionen für Autobahn und Stadt verfügbar sein. Ende 2026 soll das L2++-System die gesamten USA abdecken. Für 2026 plant Nvidia zudem einen "kleinen" Level-4-Versuch, ähnlich den Waymo-Robotaxis. Bis 2028 rechnet Nvidia mit Level-4-Technologie in privaten Fahrzeugen sowie Level-3-Autobahnfahren.

Sicherheitsexperten stehen Level-3-Systemen allerdings skeptisch gegenüber. Bei Level 3 können Fahrer Hände und Augen vom Verkehr abwenden - die Verantwortungsfrage bei Unfällen ist ungeklärt.

DLSS 4.5 und Dynamic Multi-Frame-Generation

Für Gamer brachte Nvidia die nächste große Aktualisierung von Deep Learning Super Sampling. DLSS 4.5 bringt ein überarbeitetes Transformer-Modell für die Super Resolution sowie einen neuen 6x Multi Frame-Generation-Modus, der exklusiv für die RTX-50-Serie entwickelt wurde.

DLSS 4.5 soll ein traditionelles Problem von Temporal Anti-Aliasing und früheren Super-Resolution-Modellen lösen. Diese Techniken komprimierten laut Nvidia die Helligkeitswerte, um Flackern in Spielszenen zu dämpfen. Der Nachteil: Extreme Unterschiede zwischen hellen und dunklen Bereichen wurden dabei abgeschwächt, was zu gedämpfter Beleuchtung, abgeschnittenen Details und zerdrückten Schatten in kontrastreichen Szenen führte.

Das neue Modell wurde laut Nvidia sowohl mit den ursprünglichen Helligkeitswerten der Game-Engine trainiert als auch so konzipiert, dass es während der Anwendung ohne diese Kompression arbeitet. Da das KI-Modell leistungsfähig genug sei, um Flackern auch ohne Helligkeitskompression zu kontrollieren, könnten leuchtende Neonschilder und helle Reflexionen ihren vollen Farbbereich und ihre Details behalten. Der Performance-Modus soll nun mit nativer Bildqualität vergleichbar sein oder diese sogar übertreffen.

Zusätzlich führt DLSS 4.5 Dynamic Multi Frame Generation ein, das Nvidia als "Automatikgetriebe für die GPU" beschreibt. Das System wechselt automatisch zwischen verschiedenen Frame-Multiplikatoren - darunter dem ebenfalls neuen 6x Multi-Frame-Generation-Modus -, um die Bildrate an die Bildwiederholrate des Monitors anzupassen. In grafikintensiven Szenen erhöht es die Frame-Generierung, bei geringerer Last reduziert es den Multiplikator.

Für das Training des neuen Transformer-Modells der zweiten Generation nutzte das Unternehmen nach eigenen Angaben die fünffache Rechenleistung des ursprünglichen Modells. Es wurde auf einem deutlich erweiterten, hochauflösenden Datensatz trainiert und soll ein tieferes Verständnis von Spielszenen ermöglichen.

KI-News ohne Hype – von Menschen kuratiert

Mit dem THE‑DECODER‑Abo liest du werbefrei und wirst Teil unserer Community: Diskutiere im Kommentarsystem, erhalte unseren wöchentlichen KI‑Newsletter, 6× im Jahr den „KI Radar"‑Frontier‑Newsletter mit den neuesten Entwicklungen aus der Spitze der KI‑Forschung, bis zu 25 % Rabatt auf KI Pro‑Events und Zugriff auf das komplette Archiv der letzten zehn Jahre.