Inhalt
summary Zusammenfassung

Nvidia stellt eine neue GR00T-Generation und ein KI-basiertes Videosystem für Robotertraining vor.

Anzeige

Nvidia stellte auf der Computex 2025 die aktualisierte Version seines Foundation-Modells GRooT für humanoide Roboter vor. GR00T N1.5 ist eine Weiterentwicklung des im März vorgestellten GR00T N1 und kann unter anderem auf neue Umgebungen reagieren sowie Aufgaben in der Materialhandhabung erkennen und ausführen.

Das Modell basiert auf einer Dual-System-Architektur: System 2 übernimmt kognitive Prozesse wie Planung, System 1 steuert die motorische Ausführung in Echtzeit. Ziel ist es, generalisierte Denk- und Handlungskompetenzen in humanoiden Robotern zu verankern – ähnlich wie es große Sprachmodelle im Bereich Sprache leisten.

GR00T N1.5 konnte laut Nvidia innerhalb von nur 36 Stunden mithilfe synthetischer Daten trainiert werden – herkömmliche Methoden würden dafür rund drei Monate benötigen.

Anzeige
Anzeige

Erste Anwender sind laut Nvidia AeiRobot, Foxlink, Lightwheel und NEURA Robotics. AeiRobot nutzt das Modell beispielsweise, um industrielle Pick-and-Place-Workflows mit natürlicher Sprache zu steuern. Foxlink will damit die Flexibilität von Industrierobotern verbessern, Lightwheel validiert mit dem Modell synthetische Trainingsdaten für humanoide Roboter in der Fertigung.

GR00T-Dreams erzeugt Trainingsdaten aus KI-generierten Videos

Mit GR00T-Dreams stellt Nvidia zudem einen neuen Blueprint vor, der bildgesteuerte KI-Videomodelle zur Erzeugung synthetischer Bewegungsdaten nutzt. Entwickelt wurde das System unter der Leitung von Jim Fan, der bei Nvidia die Forschungsgruppe für verkörperte generative KI führt.

Der Ablauf: Entwickler trainieren zunächst ein Weltmodell mit Cosmos Predict. Anschließend erzeugt GR00T-Dreams aus einem einzelnen Bild ein Video, das zeigt, wie ein Roboter eine neue Aufgabe in einer neuen Umgebung ausführt. Daraus extrahiert das System sogenannte Aktions-Tokens – komprimierte Datenfragmente, die dem Roboter neue Verhaltensweisen beibringen sollen.

Während reale Roboter nur begrenzt Daten pro Tag liefern können, lassen sich mit GR00T-Dreams Daten in beliebiger Menge erzeugen. Die Videos stammen aus dem KI-Videogenerator Cosmos, der zuvor mit Robotervideos aus Nvidias Lab feinjustiert wurde. Die synthetischen Daten werden dann in die Trainingspipeline eingespeist.

Neue Simulationssysteme sollen die Sim2Real-Lücke weiter verkleinern

Um die Trainings- und Testprozesse weiter zu beschleunigen, stellt Nvidia auch Updates für mehrere offene Simulations- und Datenframeworks vor. Dazu gehören Isaac Sim 5.0 und Isaac Lab 2.2, die beide auf GitHub verfügbar sind. Isaac Lab enthält neue Testumgebungen für GR00T N-Modelle. Außerdem veröffentlicht Nvidia ein Open-Source-Datenset mit 24.000 hochwertigen Bewegungssequenzen für humanoide Roboter.

Empfehlung

Mit Cosmos Reason steht ein neues Weltmodell zur Verfügung, das per "Chain of Thought"-Technik qualitativ hochwertige synthetische Trainingsdaten kuratieren soll. Cosmos Predict 2, das in GR00T-Dreams verwendet wird, soll bald auf Hugging Face erscheinen.

Das bereits im März vorgestellte GR00T-Mimic-Blueprint ergänzt das Setup: Es erzeugt mit wenigen menschlichen Demonstrationen große Mengen synthetischer Bewegungsdaten für Manipulationsaufgaben. Foxconn und Foxlink nutzen es bereits, um ihre Trainingspipelines zu beschleunigen.

Anzeige
Anzeige
Community beitreten
Kommt in die DECODER-Community bei Discord,Reddit, Twitter und Co. - wir freuen uns auf euch!
Unterstütze unsere unabhängige, frei zugängliche Berichterstattung. Jeder Betrag hilft und sichert unsere Zukunft. Jetzt unterstützen:
Banküberweisung
Zusammenfassung
  • Nvidia hat auf der Computex 2025 die neue Version seines Foundation-Modells GR00T N1.5 vorgestellt, das humanoiden Robotern ermöglicht, auf neue Umgebungen zu reagieren und Aufgaben in der Materialhandhabung zu erkennen und auszuführen.
  • Mit GR00T-Dreams präsentiert Nvidia ein KI-basiertes Videosystem, das aus einem einzelnen Bild synthetische Videos und Bewegungsdaten für das Robotertraining erzeugt. Die daraus extrahierten Aktions-Tokens sollen Robotern neue Verhaltensweisen beibringen und ermöglichen eine weitgehend unbegrenzte Datengenerierung für Trainingszwecke.
  • Nvidia veröffentlicht Updates für Simulations- und Datenframeworks wie Isaac Sim 5.0 und Isaac Lab 2.2, stellt ein Open-Source-Datenset mit 24.000 Bewegungssequenzen bereit.
Quellen
Max ist leitender Redakteur bei THE DECODER. Als studierter Philosoph beschäftigt er sich mit dem Bewusstsein, KI und der Frage, ob Maschinen wirklich denken können oder nur so tun als ob.
Community beitreten
Kommt in die DECODER-Community bei Discord,Reddit, Twitter und Co. - wir freuen uns auf euch!