Inhalt
summary Zusammenfassung

Nvidia kündigt den ersten Grafikprozessor mit HBM3e-Speicher für das KI-Training an. Das Unternehmen bringt außerdem ein neues KI-Tool auf den Markt und kooperiert mit Hugging Face.

Nvidia hat den neuen "Grace Hopper Superchip" GH200 angekündigt, der ein direkter Nachfolger der ersten Variante GH100 ist. Neu ist die G200 GPU, die erste GPU mit HBM3e Speicher. Der neue 141 Gigabyte große Speicher bietet eine 1,55-fach höhere Speicherbandbreite und eine 1,7-fach höhere Speicherkapazität als der Vorgängerchip.

Von dem schnelleren und größeren Speicher sollen vor allem das KI-Training und die Inferenz von KI-Modellen profitieren. Der GH200 und darauf basierende Komplettsysteme sollen ab dem 2. Quartal 2024 verfügbar sein.

Nvidia kooperiert mit Hugging Face

Nvidia kündigte zudem eine Partnerschaft mit Hugging Face an, einem der führenden Repositories für KI-Modelle. Die Partnerschaft verbindet die Modellbibliothek von Hugging Face mit der KI-Infrastruktur der DGX Cloud von Nvidia. Nutzer:innen von Hugging Face sollen durch die Kooperation die DGX Cloud für das Training oder Finetuning von KI-Modellen nutzen können.

Anzeige
Anzeige

Darüber hinaus wird Hugging Face einen neuen Service namens "Training Cluster as a Service" einführen, der von der DGX Cloud unterstützt wird und die Erstellung kundenspezifischer generativer KI-Modelle vereinfachen soll.

Nvidia bringt neues KI-Toolkit auf den Markt

Neben der Kooperation mit Hugging Face hat Nvidia auch die vierte Generation seiner AI Enterprise Softwareplattform angekündigt. Die wichtigste Neuerung ist die Integration von Nvidia NeMo, einem Toolkit für die Entwicklung generativer KI-Anwendungen, das Workflows für das Training, die Feinabstimmung und den Einsatz großer Sprachmodelle und anderer generativer KI-Modelle bietet.

Komplett neu ist hingegen Nvidias AI Workbench, eine lokal laufende Schnittstelle, die die Entwicklung von generativer KI vereinfachen soll und die benötigten Komponenten wie Modelle, Datensätze und Rechenleistung bündelt.

"Mit der Nvidia AI Workbench können Entwickler generative KI mit wenigen Klicks anpassen und ausführen. Sie können alle benötigten Modelle, Frameworks, SDKs und Bibliotheken aus Open-Source-Repositories und der Nvidia AI-Plattform in einem einheitlichen Arbeitsbereich für Entwickler zusammenführen."

Die Workbench stellt auch einfache Voreinstellungen bereit, die die Entwicklung beschleunigen sollen. Die trainierten Modelle können dann außerhalb der Workbench auf beliebiger Hardware ausgeführt werden. AI Workbench wird laut Nvidia auf Windows- und Linux-Systemen mit RTX-Board sowie von Herstellern wie Dell Technologies, Hewlett Packard Enterprise, HP Inc, Lambda, Lenovo und Supermicro unterstützt.

Anzeige
Community beitreten
Kommt in die DECODER-Community bei Discord,Reddit, Twitter und Co. - wir freuen uns auf euch!
Anzeige
Community beitreten
Kommt in die DECODER-Community bei Discord,Reddit, Twitter und Co. - wir freuen uns auf euch!
Empfehlung
Unterstütze unsere unabhängige, frei zugängliche Berichterstattung. Jeder Betrag hilft und sichert unsere Zukunft. Jetzt unterstützen:
Banküberweisung
Zusammenfassung
  • Nvidia hat den Grace Hopper Superchip GH200 vorgestellt, der erstmals GPU mit HBM3e-Speicher für KI-Training und Inferenz von KI-Modellen einsetzt. Der 141 Gigabyte große Speicher bietet höhere Speicherbandbreite und Speicherkapazität als sein Vorgänger.
  • Nvidia hat zudem eine Partnerschaft mit Hugging Face angekündigt, die Hugging Face-Nutzer ermöglicht, die DGX Cloud von Nvidia für das Training oder Finetuning von KI-Modellen zu nutzen.
  • Nvidia hat die vierte Generation seiner AI Enterprise Softwareplattform vorgestellt, die NeMo (Toolkit für generative KI) und die AI Workbench (Schnittstelle für die Entwicklung generativer KI) integriert. Die AI Workbench vereinfacht die KI-Entwicklung und unterstützt Windows- und Linux-Systeme.
Max ist leitender Redakteur bei THE DECODER. Als studierter Philosoph beschäftigt er sich mit dem Bewusstsein, KI und der Frage, ob Maschinen wirklich denken können oder nur so tun als ob.
Community beitreten
Kommt in die DECODER-Community bei Discord,Reddit, Twitter und Co. - wir freuen uns auf euch!