Inhalt
summary Zusammenfassung

Nvidia verwendet seine dominante Rolle bei KI-Hardware, um im Cloud-Software-Geschäft Fuß zu fassen.

Anzeige

Nvidia stellt mit der H100-GPU nicht nur wohl heiß begehrtesten KI-Chip her, das Unternehmen bietet seit März auch den eigenen Cloud-Dienst DGX Cloud an. Damit erschließt Nvidia ein neues Geschäftsfeld: den Verkauf von Cloud-Software und den direkten Kontakt zu den Geschäftskunden seiner GPUs.

Die Server für DGX Cloud stehen bei großen Cloud-Anbietern: Laut The Information hat Nvidia letztes Jahr mehreren Anbietern angeboten, die eigenen Nvidia-Server bei diesen Cloud-Anbietern zu mieten und den Zugriff darauf direkt an KI-Entwickler zu vermieten.

Amazons AWS lehnte den Vorschlag ab, während Microsoft, Google und Oracle zustimmten.

Anzeige
Anzeige

Nvidia gewinnt direkten Kundenkontakt

Streng genommen verlieren die Cloud-Anbieter durch den Deal keine Einnahmen - Nvidia bezahlt für die Server und vermietet sie teurer weiter. Aber die Kunden, die Nvidias DGX-Cloud nutzen, sind Kunden, die keine KI-Dienste von AWS, Microsoft, Google oder Oracle kaufen.

"Ich kann gut verstehen, warum Amazon nicht mitmacht, denn letztendlich hat Nvidia die Kundenbeziehung", sagt Stacy Rasgon, Analystin bei Bernstein. Die Cloud-Anbieter, die sich auf den Deal eingelassen hätten, seien kleiner als AWS, sodass sie theoretisch durch DGX Cloud Marktanteile von AWS gewinnen könnten, so Rasgon.

Nvidia konzentriert sich auf die Bereitstellung der Rechen- und Softwareinfrastruktur, die es Unternehmen ermöglicht, ihre eigenen KI-Modelle zu trainieren - und dann überall auf der DGX Cloud laufen zu lassen. So sind Unternehmen nicht an einen bestimmten Cloud-Anbieter gebunden, sondern nur an die Hardware von Nvidia.

Zu den Kunden von Nvidias DGX Cloud-Dienst zählen neben Adobe, Getty Images und Shutterstock, die Nvidias Service nutzen, um generative KI-Modelle zu trainieren, bereits einige der größten Kunden von Cloud-Diensten, darunter der IT-Softwaregigant ServiceNow, das Biopharmaunternehmen Amgen und das Versicherungsunternehmen CCC Intelligent Solutions. Letzten Monat erklärte Nvidias CEO Jensen Huang gegenüber Analysten, dass DGX Cloud "ein großer Erfolg" sei.

Nvidia unterstützt kleine Cloud-Anbieter

Ziel von DGX Cloud ist es laut Nvidia hingegen vor allem, das Wissen über die eigene Hardware zu nutzen, um Cloud-Anbietern zu zeigen, wie sie die GPU-Server in ihren Rechenzentren konfigurieren können. Diese könnten dann die optimalen Konfigurationen hochskalieren.

So profitiert Nvidia auch außerhalb des direkten Kundenkontakts von DGX Cloud, denn eine bessere Performance macht die eigene Hardware attraktiver und sichert so die eigene Vormachtstellung auf dem Markt für KI-Hardware.

Darüber hinaus hat das Unternehmen viele seiner wertvollen H100-GPUs an kleinere Anbieter wie CoreWeave, Lambda Labs und Crusoe Energy verkauft, um ihnen zu helfen, mit den großen Anbietern zu konkurrieren. Aus Sicht von Nvidia macht dieser Schritt Sinn, da AWS, Microsoft und Google ihre eigenen KI-Chips entwickeln, um ihre Abhängigkeit von Nvidia zu reduzieren.

Anzeige
Anzeige
Community beitreten
Kommt in die DECODER-Community bei Discord,Reddit, Twitter und Co. - wir freuen uns auf euch!
Unterstütze unsere unabhängige, frei zugängliche Berichterstattung. Jeder Betrag hilft und sichert unsere Zukunft. Jetzt unterstützen:
Banküberweisung
Zusammenfassung
  • Nvidia erweitert seine Geschäftsaktivitäten im Bereich Cloud-Software mit dem Cloud-Dienst DGX Cloud, der von großen Cloud-Anbietern wie Microsoft, Google und Oracle gehostet wird.
  • Der Dienst bietet Unternehmen die Rechen- und Softwareinfrastruktur, um ihre eigenen KI-Modelle zu trainieren, ohne an einen bestimmten Cloud-Anbieter gebunden zu sein - und Nvidia direkten Kundenkontakt in einem neuen Geschäftsfeld.
  • Zu den Kunden des DGX Cloud Service zählen bereits einige der größten Cloud-Anbieter, darunter der IT-Softwaregigant ServiceNow, das Biopharmaunternehmen Amgen und das Versicherungsunternehmen CCC Intelligent Solutions.
Quellen
Max ist leitender Redakteur bei THE DECODER. Als studierter Philosoph beschäftigt er sich mit dem Bewusstsein, KI und der Frage, ob Maschinen wirklich denken können oder nur so tun als ob.
Community beitreten
Kommt in die DECODER-Community bei Discord,Reddit, Twitter und Co. - wir freuen uns auf euch!