Anzeige
Skip to content

Nvidia kündigt neuen "Superchip" und Kooperation mit Hugging Face an

Image description
Nvidia

Nvidia kündigt den ersten Grafikprozessor mit HBM3e-Speicher für das KI-Training an. Das Unternehmen bringt außerdem ein neues KI-Tool auf den Markt und kooperiert mit Hugging Face.

Nvidia hat den neuen "Grace Hopper Superchip" GH200 angekündigt, der ein direkter Nachfolger der ersten Variante GH100 ist. Neu ist die G200 GPU, die erste GPU mit HBM3e Speicher. Der neue 141 Gigabyte große Speicher bietet eine 1,55-fach höhere Speicherbandbreite und eine 1,7-fach höhere Speicherkapazität als der Vorgängerchip.

Von dem schnelleren und größeren Speicher sollen vor allem das KI-Training und die Inferenz von KI-Modellen profitieren. Der GH200 und darauf basierende Komplettsysteme sollen ab dem 2. Quartal 2024 verfügbar sein.

Nvidia kooperiert mit Hugging Face

Nvidia kündigte zudem eine Partnerschaft mit Hugging Face an, einem der führenden Repositories für KI-Modelle. Die Partnerschaft verbindet die Modellbibliothek von Hugging Face mit der KI-Infrastruktur der DGX Cloud von Nvidia. Nutzer:innen von Hugging Face sollen durch die Kooperation die DGX Cloud für das Training oder Finetuning von KI-Modellen nutzen können.

Anzeige
DEC_D_Incontent-1

Darüber hinaus wird Hugging Face einen neuen Service namens "Training Cluster as a Service" einführen, der von der DGX Cloud unterstützt wird und die Erstellung kundenspezifischer generativer KI-Modelle vereinfachen soll.

Nvidia bringt neues KI-Toolkit auf den Markt

Neben der Kooperation mit Hugging Face hat Nvidia auch die vierte Generation seiner AI Enterprise Softwareplattform angekündigt. Die wichtigste Neuerung ist die Integration von Nvidia NeMo, einem Toolkit für die Entwicklung generativer KI-Anwendungen, das Workflows für das Training, die Feinabstimmung und den Einsatz großer Sprachmodelle und anderer generativer KI-Modelle bietet.

Komplett neu ist hingegen Nvidias AI Workbench, eine lokal laufende Schnittstelle, die die Entwicklung von generativer KI vereinfachen soll und die benötigten Komponenten wie Modelle, Datensätze und Rechenleistung bündelt.

"Mit der Nvidia AI Workbench können Entwickler generative KI mit wenigen Klicks anpassen und ausführen. Sie können alle benötigten Modelle, Frameworks, SDKs und Bibliotheken aus Open-Source-Repositories und der Nvidia AI-Plattform in einem einheitlichen Arbeitsbereich für Entwickler zusammenführen."

Anzeige
DEC_D_Incontent-2

Die Workbench stellt auch einfache Voreinstellungen bereit, die die Entwicklung beschleunigen sollen. Die trainierten Modelle können dann außerhalb der Workbench auf beliebiger Hardware ausgeführt werden. AI Workbench wird laut Nvidia auf Windows- und Linux-Systemen mit RTX-Board sowie von Herstellern wie Dell Technologies, Hewlett Packard Enterprise, HP Inc, Lambda, Lenovo und Supermicro unterstützt.

KI-News ohne Hype – von Menschen kuratiert

Mit dem THE‑DECODER‑Abo liest du werbefrei und wirst Teil unserer Community: Diskutiere im Kommentarsystem, erhalte unseren wöchentlichen KI‑Newsletter, 6× im Jahr den „KI Radar“‑Frontier‑Newsletter mit den neuesten Entwicklungen aus der Spitze der KI‑Forschung, bis zu 25 % Rabatt auf KI Pro‑Events und Zugriff auf das komplette Archiv der letzten zehn Jahre.

KI-News ohne Hype
Von Menschen kuratiert.

  • Mehr als 20 Prozent Launch-Rabatt.
  • Lesen ohne Ablenkung – keine Google-Werbebanner.
  • Zugang zum Kommentarsystem und Austausch mit der Community.
  • Wöchentlicher KI-Newsletter.
  • 6× jährlich: „KI Radar“ – Deep-Dives zu den wichtigsten KI-Themen.
  • Bis zu 25 % Rabatt auf KI Pro Online-Events.
  • Zugang zum kompletten Archiv der letzten zehn Jahre.
  • Die neuesten KI‑Infos von The Decoder – klar und auf den Punkt.
The Decoder abonnieren