Auf der Computex in Taiwan präsentierte Nvidia verschiedene KI-Produkte. Dazu gehören Project G-Assist für Gamer, Nvidia ACE für digitale Menschen und das RTX AI Toolkit für Entwickler.
Nvidia hat auf der Computex eine Reihe neuer Produkte und Updates vorgestellt. Neben den Neuheiten für und über die Industrie kündigte das Unternehmen auch neue Projekte für Verbraucher an.
So zeigte Nvidia mit Project G-Assist eine Tech-Demo eines spieleintegrierten KI-Assistenten, der kontextabhängige Hilfe in Spielen wie ARK: Survival Ascended bietet. Der Assistent reagiert auf Sprach- oder Texteingaben, analysiert Bildinformationen aus dem Spiel und gibt maßgeschneiderte Antworten. Er soll in ARK Spieler bei Themen wie Kreaturen, Gegenständen, Story und Bossen unterstützen und das System für optimale Leistung konfigurieren.
Auch von ACE, Nvidias Plattform für digitale Menschen gab es ein Update. ACE kommt mit den NIM-Inferenz-Microservices erstmals auf RTX-PCs. NIMs ermöglichen die lokale Ausführung von Modellen für Sprachverständnis, Sprachsynthese und Gesichtsanimation. Wie das Aussehen könnte, zeigte das Unternehmen mit einer Tech-Demo in Covert Protocol.
Nvidia stellte außerdem das RTX AI Toolkit vor. Dabei handelt es sich um eine Sammlung von Tools und SDKs, mit denen Entwickler große generative KI-Modelle für Windows-PCs optimieren und einsetzen können. Damit lassen sich Modelle anpassen, komprimieren und laut Nvidia bis zu viermal schneller ausführen. Ein zentrales Element ist das AI Inference Manager SDK für die Integration von KI in PC-Anwendungen.
Weitere Neuigkeiten sind die Zusammenarbeit mit Microsoft an einer GPU-Beschleunigung für kleine Sprachmodelle auf dem Windows Copilot Runtime sowie neue RTX-beschleunigte KI-Funktionen in Apps für Kreative und Videobearbeitung. Dazu gehört auch eine optimierte Version des populären Tools ComfyUI für Stable Diffusion sowie ein Open-Source-SDK für den RTX Remix Modding-Workflow.
Die neuen Funktionen sollen ab Juni für RTX-PCs und RTX-Laptops der Serien RTX 4000 und aufwärts verfügbar sein. Einige Tools sind bereits erhältlich, andere folgen im Laufe des Jahres als Developer Preview.
Spectrum-X: Neue Ethernet-Netzwerkplattform von Nvidia
Nvidia hat zudem die breite Einführung der Nvidia Spectrum-X Ethernet-Netzwerkplattform und einen beschleunigten Produktveröffentlichungsplan angekündigt. Spectrum-X ist laut Nvidia das weltweit erste Ethernet-Fabric für KI und soll die Netzwerkleistung für generative KI um das 1,6-fache gegenüber herkömmlichen Ethernet-Fabrics beschleunigen.
KI-Cloud-Anbieter wie CoreWeave, Lambda und Scaleway gehören zu den ersten, die Spectrum-X nutzen. Nvidias CEO Jensen Huang versprach regelmäßige Updates für Spectrum-X, um die Vernetzung weiter zu beschleunigen.
Nvidia kündigte auch eine Erweiterung seines Programms für Nvidia-zertifizierte Systeme an, um Kunden die Bereitstellung von KI-Workloads zu erleichtern. Neu sind die Zertifizierungen "Nvidia Spectrum-X Ready" für KI im Rechenzentrum und "Nvidia IGX" für KI am Edge.
Nvidias Robotik-Plattform findet neue Partner, NIM-Microservices kostenlos für Entwickler
Huang gab außerdem bekannt, dass führende Unternehmen der Robotik-Branche wie BYD Electronics, Siemens, Teradyne Robotics und Intrinsic (Alphabet) die Nvidia-Isaac-Plattform für die Entwicklung der nächsten Generation von KI-gesteuerten autonomen Maschinen und Robotern einsetzen.
Die Isaac-Plattform umfasst Nvidia-beschleunigte Bibliotheken, KI-Modelle und Simulationstechnologien. Sie ermöglicht es Roboterherstellern, ihre Technologie-Stacks zu integrieren. Nvidia will den eigenen Robotik-Stacks stetig weiterentwickeln, darunter Omniverse für Simulationsanwendungen, Foundation-Modelle für humanoide Roboter und den Jetson-Thor-Robotikcomputer.
Huang demonstrierte auch Roboter für Transport, Gesundheitswesen und Industrie. Foxconn zeigte eine vollständig simulierte autonome Fabrik in Nvidia Omniverse mit KI-Robotern von Nvidia-Partnern.
Nvidia gab auch ein Update zum Inferenz-Microservice-Framework NIM vor, das die Entwicklung von KI-Anwendungen vereinfachen soll. NIM bietet optimierte Container für über 40 KI-Modelle, darunter Llama 3, Gemma und Mistral, und soll die Entwicklungszeit von Wochen auf Minuten reduzieren.
Laut dem Unternehmen integrieren bereits mehr als 150 Partner NIM, um unternehmens- und branchenspezifische Anwendungen zu beschleunigen, darunter Amdocs, Foxconn, Lowe's, Pegatron und Siemens. NIM-Microservices sind über Nvidia AI Enterprise und ab sofort auch für Nvidia Developer Programm-Mitglieder kostenlos für Forschung und Tests verfügbar.