Nvidia kündigt den ersten Grafikprozessor mit HBM3e-Speicher für das KI-Training an. Das Unternehmen bringt außerdem ein neues KI-Tool auf den Markt und kooperiert mit Hugging Face.
Nvidia hat den neuen "Grace Hopper Superchip" GH200 angekündigt, der ein direkter Nachfolger der ersten Variante GH100 ist. Neu ist die G200 GPU, die erste GPU mit HBM3e Speicher. Der neue 141 Gigabyte große Speicher bietet eine 1,55-fach höhere Speicherbandbreite und eine 1,7-fach höhere Speicherkapazität als der Vorgängerchip.
Von dem schnelleren und größeren Speicher sollen vor allem das KI-Training und die Inferenz von KI-Modellen profitieren. Der GH200 und darauf basierende Komplettsysteme sollen ab dem 2. Quartal 2024 verfügbar sein.
Nvidia kooperiert mit Hugging Face
Nvidia kündigte zudem eine Partnerschaft mit Hugging Face an, einem der führenden Repositories für KI-Modelle. Die Partnerschaft verbindet die Modellbibliothek von Hugging Face mit der KI-Infrastruktur der DGX Cloud von Nvidia. Nutzer:innen von Hugging Face sollen durch die Kooperation die DGX Cloud für das Training oder Finetuning von KI-Modellen nutzen können.
Darüber hinaus wird Hugging Face einen neuen Service namens "Training Cluster as a Service" einführen, der von der DGX Cloud unterstützt wird und die Erstellung kundenspezifischer generativer KI-Modelle vereinfachen soll.
Nvidia bringt neues KI-Toolkit auf den Markt
Neben der Kooperation mit Hugging Face hat Nvidia auch die vierte Generation seiner AI Enterprise Softwareplattform angekündigt. Die wichtigste Neuerung ist die Integration von Nvidia NeMo, einem Toolkit für die Entwicklung generativer KI-Anwendungen, das Workflows für das Training, die Feinabstimmung und den Einsatz großer Sprachmodelle und anderer generativer KI-Modelle bietet.
Komplett neu ist hingegen Nvidias AI Workbench, eine lokal laufende Schnittstelle, die die Entwicklung von generativer KI vereinfachen soll und die benötigten Komponenten wie Modelle, Datensätze und Rechenleistung bündelt.
"Mit der Nvidia AI Workbench können Entwickler generative KI mit wenigen Klicks anpassen und ausführen. Sie können alle benötigten Modelle, Frameworks, SDKs und Bibliotheken aus Open-Source-Repositories und der Nvidia AI-Plattform in einem einheitlichen Arbeitsbereich für Entwickler zusammenführen."
Die Workbench stellt auch einfache Voreinstellungen bereit, die die Entwicklung beschleunigen sollen. Die trainierten Modelle können dann außerhalb der Workbench auf beliebiger Hardware ausgeführt werden. AI Workbench wird laut Nvidia auf Windows- und Linux-Systemen mit RTX-Board sowie von Herstellern wie Dell Technologies, Hewlett Packard Enterprise, HP Inc, Lambda, Lenovo und Supermicro unterstützt.