Anzeige
Skip to content

GTC 2026: Nvidia will das Datenproblem der Robotik in ein Rechenproblem verwandeln

Image description
Nvidia

Kurz & Knapp

  • Nvidia baut auf der GTC 2026 seine Plattform für physische KI massiv aus: Ab 2027 sollen autonome Fahrzeuge mit Uber in Los Angeles fahren, bis 2028 in 28 Städten weltweit. Neben Uber setzen auch BYD, Geely und Nissan auf Nvidias DRIVE-Hyperion-Architektur.
  • Die Industrieroboterhersteller FANUC, ABB, YASKAWA und KUKA integrieren Nvidias Simulations- und KI-Frameworks. Für humanoide Roboter stellt Nvidia das Modell GR00T N2 vor, das neue Aufgaben in unbekannten Umgebungen laut Nvidia mehr als doppelt so oft bewältigt wie bisherige führende Modelle.
  • Mit dem Open-Source-Blueprint „Physical AI Data Factory" will Nvidia das Trainingsdaten-Problem der Robotik lösen, indem synthetische Daten automatisiert erzeugt werden – das Datenproblem wird so zum Rechenproblem. Parallel wird gemeinsam mit T-Mobile und Nokia 5G-Infrastruktur für Edge-KI-Anwendungen aufgebaut.

Auf der GTC 2026 baut Nvidia seine Plattform für physische KI massiv aus. Ab 2027 sollen autonome Fahrzeuge mit Uber durch Los Angeles fahren, Industrieroboter von FANUC und ABB erhalten Nvidia-Gehirne, und neue Modelle sollen humanoide Roboter leistungsfähiger machen.

Nvidia hat auf seiner Entwicklerkonferenz GTC 2026 erneut ausführlich über "Physical AI" gesprochen. Hinter dem Schlagwort verbirgt sich eine Plattformstrategie: Nvidia liefert Chips, Modelle, Simulationswerkzeuge und Sicherheitsarchitekturen, auf denen Partner aus Automobil-, Robotik-, Medizin- und Telekommunikationsindustrie aufbauen sollen.

Die Ankündigungen betreffen praktisch die gesamte Wertschöpfungskette physischer KI-Systeme, von der Trainingsdaten-Pipeline bis zum 5G-Edge-Computing. CEO Jensen Huang bezeichnete autonome Fahrzeuge als "die erste Multi-Billionen-Dollar-Robotikindustrie" und sagte: "Alles, was sich bewegt, wird irgendwann autonom sein."

Uber soll ab 2027 Robotaxis mit Nvidia-Technik in Los Angeles starten

Die konkreteste Ankündigung betrifft die erweiterte Partnerschaft mit Uber. Eine Flotte autonomer Fahrzeuge, die auf der jüngsten Version der DRIVE-Hyperion-Plattform und Nvidias DRIVE-AV-Software läuft, soll bis 2028 in 28 Städten auf vier Kontinenten fahren. Der Start ist für die erste Jahreshälfte 2027 in Los Angeles und der San Francisco Bay Area geplant.

Anzeige
DEC_D_Incontent-1

Ob dieser Zeitplan hält, bleibt abzuwarten. Klar ist: Nvidia positioniert DRIVE Hyperion als Standardarchitektur für Level-4-Autonomie. Neben Uber setzen laut Nvidia auch BYD, Geely und Nissan darauf. Nissan nutzt dabei Software des britischen KI-Unternehmens Wayve. Der japanische Nutzfahrzeughersteller Isuzu arbeitet gemeinsam mit TIER IV an autonomen Bussen auf Basis des DRIVE-AGX-Thor-Chips. Weitere Mobilitätsanbieter wie Bolt, Grab und Lyft werden ebenfalls als Partner genannt.

Als Sicherheitsschicht für diese Systeme stellt Nvidia das Betriebssystem Halos OS vor: eine dreischichtige Architektur auf Basis des ASIL-D-zertifizierten DriveOS, die unter anderem einen NCAP-5-Sterne-Sicherheitsstack enthält.

Alpamayo 1.5: Ein lenkbares Fahrmodell mit Sprachsteuerung

Daneben stellte Nvidia Alpamayo 1.5 vor, ein offenes KI-Modell für autonomes Fahren. Es nimmt Fahrvideo, Bewegungshistorie, Navigationsdaten und natürlichsprachliche Anweisungen als Eingaben entgegen und gibt Fahrtrajektorien mit nachvollziehbaren Reasoning-Spuren aus. Entwickler sollen damit das Fahrverhalten über Text-Prompts direkt steuern können.

Das Modell unterstützt flexible Mehrkamera-Konfigurationen, was den Einsatz desselben KI-Stacks über verschiedene Fahrzeuglinien hinweg erleichtern soll. Seit seinem Start sei das Alpamayo-Portfolio laut Nvidia von über 100.000 Entwicklern heruntergeladen worden.

Anzeige
DEC_D_Incontent-2

Für Training und Validierung steht Omniverse NuRec bereit, eine Simulationstechnologie auf Basis von 3D Gaussian Splatting. Sie rekonstruiert reale Fahrsituationen für interaktive Tests und ist jetzt über den NGC-Katalog allgemein verfügbar. Zu den Nutzern zählen dSPACE, Foretellix und die Universität Michigan mit ihrer Testanlage Mcity.

Industrieroboter sollen denken lernen

Parallel zur Automobil-Offensive baut Nvidia seine Robotik-Plattform aus. FANUC, ABB Robotics, YASKAWA und KUKA, die zusammen laut Nvidia über zwei Millionen installierte Roboter weltweit betreiben, integrieren Omniverse-Bibliotheken und Isaac-Simulationsframeworks in ihre Inbetriebnahmelösungen. Zusätzlich sollen Jetson-Module für KI-Inferenz an der Edge in die Steuerungen einziehen.

Als neues Modell kündigt Nvidia Cosmos 3 an, das synthetische Weltgenerierung, visuelles Reasoning und Aktionssimulation vereinen und so die älteren Versionen der Cosmos-Modelle übertreffen soll.

Für humanoide Roboter stellt Nvidia das Foundation Model GR00T N1.7 im Early Access mit kommerzieller Lizenz bereit, das generalisierte Skills einschließlich Geschicklichkeitssteuerung mitbringen soll. Huang zeigte außerdem eine Vorschau auf GR00T N2, basierend auf der hauseigenen DreamZero-Forschung mit einer neuen "World Action Model"-Architektur. Laut Nvidia schaffen Roboter mit GR00T N2 neue Aufgaben in unbekannten Umgebungen mehr als doppelt so oft wie führende Vision-Language-Action-Modelle. Das Modell rangiere derzeit auf Platz 1 der Benchmarks MolmoSpaces und RoboArena und soll bis Ende 2026 verfügbar sein. Die GR00T-Modelle sollen generalistische Modelle liefern, die über verschiedene Roboterplattformen zahlreiche Aufgaben erledigen können.

Isaac Lab 3.0, ebenfalls im Early Access, soll schnelleres Roboterlernen auf DGX-Infrastruktur ermöglichen und baut auf der neuen Newton Physics Engine 1.0 auf.

Zu den Partnerunternehmen gehören KI-Robotik-Startups und etablierte Robotikriesen: 1X, AGIBOT, Agility, Boston Dynamics, Figure, Hexagon Robotics und NEURA Robotics entwickeln humanoide Roboter auf Nvidia-Basis. Skild AI arbeitet mit den großen Herstellern ABB und Universal Robots an generalisierter Roboterintelligenz für verschiedene Industrien und unterstützt gleichzeitig Foxconn bei der Hochpräzisionsmontage für Nvidias eigene Blackwell-Produktionslinien.

Open-Source-Blueprint soll Trainingsdaten-Problem lösen

Nvidia nimmt sich außerdem weiter einem zentralen Problem im Training von "Physical AI" an: Die Modelle benötigen riesige Mengen an Trainingsdaten, darunter seltene Randfälle, die in der realen Welt schwer und teuer zu erfassen sind. Der Physical AI Data Factory Blueprint soll das adressieren. Die offene Referenzarchitektur automatisiert die Pipeline von Rohdaten zu fertigen Trainingsdatensätzen über drei Stufen: Cosmos Curator für die Kuratierung, Cosmos Transfer für die Vervielfältigung und Cosmos Evaluator für die Qualitätsbewertung.

Nvidia will mit dieser und seinen anderen Simulationsplattformen das Datenproblem der Robotik also direkt in ein Rechenproblem verwandeln. Der limitierende Faktor für leistungsstärkere Modelle ist damit dann nicht mehr etwa die Fahrzeugflotte eines Autoherstellers, der in der echten Welt Daten sammeln muss, stattdessen ist es die rohe Rechenleistung, die das Unternehmen bereit ist, in das Simulationstraining zu stecken.

Das dafür vorgestellte Orchestrierungsframework OSMO integriert sich laut dem Unternehmen mit Coding Agents wie Claude Code, OpenAI Codex und Cursor, damit KI-Agenten Ressourcen und Engpässe in der Datenpipeline eigenständig managen. Microsoft Azure und Nebius binden den Blueprint in ihre Cloud-Dienste ein. Die Veröffentlichung auf GitHub ist für April angekündigt.

IGX Thor für OP-Säle und Satelliten

Nvidias Edge-Computing-Plattform IGX Thor – eine Art KI-PC für Edge-Anwendungen – ist jetzt zudem allgemein verfügbar und zielt auch auf sicherheitskritische Anwendungen. Johnson & Johnson nutzt die Plattform laut Nvidia für seine digitale Chirurgieplattform Polyphonic, Karl Storz entwickelt damit Endoskopie-Werkzeuge, Medtronic evaluiert den Einsatz in chirurgischen Robotersystemen.

Außerhalb der Medizin setzt Caterpillar IGX Thor für einen KI-Kabinenassistenten ein, Hitachi Rail für prädiktive Wartung, und Planet Labs will damit Satellitendaten direkt im Orbit verarbeiten. Auch CERN-Forscher nutzen die Plattform laut Nvidia für physik-inspirierte KI-Modelle.

T-Mobile und Nokia machen 5G-Netze zur Edge-KI-Infrastruktur

Gemeinsam mit T-Mobile und Nokia will Nvidia 5G-Mobilfunknetze in verteilte Edge-KI-Infrastruktur verwandeln. T-Mobile pilotiert Nvidia RTX PRO 6000 Blackwell Server Edition an Netzwerkstandorten und testet physische KI-Anwendungen über das Mobilfunknetz.

Huang sagte dazu: "Telekommunikationsnetze entwickeln sich zur KI-Infrastruktur, die Milliarden von Geräten befähigt, in Echtzeit zu sehen, zu hören und zu handeln."

Die Idee: Schwere KI-Berechnungen werden von Kameras und Robotern an den nächsten Netzwerk-Edge-Standort ausgelagert, statt in die Cloud geschickt. Zu den Pilotprojekten gehört eine "City Operations Agent"-Lösung für San Jose, die Verkehrsampelsteuerung optimieren und laut Nvidia die Vorfallreaktionszeit verfünffachen soll. Levatas und Skydio automatisieren die Inspektion von Stromleitungen über 5G.

Nvidia führt zudem den Metropolis VSS 3 Blueprint ein, der Video-KI-Agenten ermöglichen soll, die Aufnahmen durchsuchen und zusammenfassen. Spezifische Ereignisse sollen in unter fünf Sekunden auffindbar sein. Weltweit gebe es über 1,5 Milliarden Kameras, von deren Aufnahmen weniger als ein Prozent jemals von Menschen gesichtet werde, so Nvidia.

Chipdesign und Fertigung: KI-Agenten für Halbleiter-Workflows

Auf der Softwareseite arbeitet Nvidia mit Cadence, Dassault Systèmes, Siemens und Synopsys zusammen. Alle vier bauen laut Nvidia KI-Agenten für Chip- und System-Workflows und dienten in der Präsentation als Beispiele, wie "Physical AI"-Modelle in der Forschung, Entwicklung und Produktion helfen können - und wie Nvidias GPUs diese Prozesse beschleunigen. Cadence baut laut Nvidia den "ChipStack AI SuperAgent", Siemens den "Fuse EDA AI Agent", Synopsys das "AgentEngineer"-Framework und Dassault rollenbasierte "Virtual Companions".

Honda führt aerodynamische Simulationen mit Synopsys Ansys Fluent auf der Grace-Blackwell-Plattform laut Nvidia 34-mal schneller durch als mit CPUs. JLR und Mercedes-Benz nutzen Siemens Simcenter STAR-CCM+ auf Nvidia-Infrastruktur. MediaTek beschleunige Cadence Spectre um den Faktor 6 mit H100-GPUs.

Im Halbleiterbereich setzen Samsung, SK hynix und TSMC auf GPU-beschleunigte Tools für Lithografie und physikalische Verifikation. Siemens neuer Digital Twin Composer, der auf Omniverse-Bibliotheken aufbaut, soll Foxconn, HD Hyundai, PepsiCo und KION industrielle digitale Zwillinge ermöglichen. Die Cloud-Infrastruktur stellen AWS, Google Cloud, Microsoft Azure und Oracle bereit.

KI-News ohne Hype – von Menschen kuratiert

Mit dem THE‑DECODER‑Abo liest du werbefrei und wirst Teil unserer Community: Diskutiere im Kommentarsystem, erhalte unseren wöchentlichen KI‑Newsletter, 6× im Jahr den „KI Radar"‑Frontier‑Newsletter mit den neuesten Entwicklungen aus der Spitze der KI‑Forschung, bis zu 25 % Rabatt auf KI Pro‑Events und Zugriff auf das komplette Archiv der letzten zehn Jahre.