Nvidia entwickelt ein neuartiges Rechenzentrum, das CEO Jensen Huang als "KI-Fabrik" bezeichnet. Zudem soll die neue GPU-Generation Blackwell die KI-Skalierung erleichtern.
Im Gegensatz zu herkömmlichen Rechenzentren, in denen sich viele Nutzer einen Cluster von Computern teilen, soll eine KI-Fabrik laut Huang eher einem Kraftwerk ähneln. Nvidia habe in den vergangenen Jahren daran gearbeitet und wolle die Technologie nun in ein Produkt umsetzen.
Einen offiziellen Namen hat die neue, laut Huang einzigartige Form von Rechenzentrum bisher nicht. Die KI-Fabrik soll aber in Zukunft allgegenwärtig sein und sowohl von Cloud-Dienstleistern als auch von Nvidia selbst gebaut werden, sagt Huang in einem Interview mit Wired. Die genaue Funktion der Fabrik beschreibt Huang nicht.
"Wir haben uns angeschaut, wie das Moore'sche Gesetz formuliert wurde, und gesagt: 'Lasst euch davon nicht einschränken. Das Mooresche Gesetz ist kein Hindernis für Rechenleistung.'"
KI-Fabriken sollen künftig von Cloud-Dienstleistern, Biotechnologieunternehmen, Einzelhändlern, Logistikunternehmen und Automobilherstellern genutzt werden.
Als Beispiel nennt Huang eine Autofabrik, die neben Fabriken für die Produktion von Autoteilen auch eine Fabrik für die Produktion von KI haben soll. Ein Vorreiter sei Elon Musk, der bereits auf die Kombination von physischer Produktion und KI-Entwicklung setze.
Nachfrage nach Nvidia-Karten übersteigt weiter Produktion
Huang rechnet nicht damit, dass Nvidia die Nachfrage nach seinen Grafikkarten in diesem Jahr vollständig befriedigen kann. Auch das nächste Jahr hält er für unwahrscheinlich.
Noch in diesem Jahr soll laut Huang zudem Nvidias nächste GPU-Generation mit dem Codenamen "Blackwell" auf den Markt kommen. Die Leistung der Karten sei "unschlagbar", so Huang.
Ziel der neuen Karten sei es auch, die Trainingskosten für KI-Modelle zu senken, damit diese besser skalieren können.
Die massive Skalierung wird von vielen in der KI-Branche neben anderen architektonischen Fortschritten als treibende Kraft für den Fortschritt der KI angesehen. Sie scheitert jedoch nach wie vor unter anderem an den hohen Kosten für das Training und die Inferenz großer KI-Modelle und an der schlechten Verfügbarkeit von Hardware. Niedrigere Hardware- und Betriebskosten würden die Skalierung fördern.