Nvidia hat im dritten Quartal des Geschäftsjahres 2025 erneut Rekordzahlen erzielt. Der Umsatz stieg auf 35,1 Milliarden US-Dollar. Doch laut CEO Jensen Huang steht das Unternehmen erst am Anfang zweier fundamentaler Entwicklungen, die langfristig für weiteres Wachstum sorgen sollen.
"Die enorme Entwicklung unseres Geschäfts wird von zwei grundlegenden Trends angetrieben, die den weltweiten Einsatz des NVIDIA-Computings vorantreiben", sagte Huang im Earnings Call. Der erste Trend sei die Modernisierung der globalen IT-Infrastruktur.
Huang sieht eine Transformation von beispiellosem Ausmaß: Die eine Billion US-Dollar schwere, auf CPUs basierende IT-Infrastruktur der Welt werde gerade modernisiert, um Machine Learning und KI zu unterstützen. "Die Recheninfrastruktur wird neu erfunden, es findet ein Plattformwechsel vom Programmieren zum maschinellen Lernen statt, von der Ausführung von Code auf CPUs zur Verarbeitung neuronaler Netze auf GPUs."
Huang erwartet, dass diese Transformation mehrere Jahre in Anspruch nehmen wird, da Unternehmen weltweit ihre Rechenzentren umrüsten. "Die traditionelle Rechenzentrumsinfrastruktur mit einem installierten Bestand von 1 Billion Dollar wird für Software 2.0 neu aufgebaut, die maschinelles Lernen einsetzt, um KI zu erzeugen."
KI-Fabriken für "digitale Intelligenz"
Der zweite fundamentale Trend ist laut Huang die Produktion von digitaler Intelligenz in "KI-Fabriken", die rund um die Uhr laufen. "Das Zeitalter der KI ist in vollem Gange. Generative KI ist nicht nur eine neue Softwarefähigkeit, sondern eine neue Industrie mit KI-Fabriken, die digitale Intelligenz herstellen, eine neue industrielle Revolution, die eine Multi-Billionen-Dollar-KI-Industrie schaffen kann."
Nvidias Hopper- und Blackwell-Architekturen sowie Plattformen wie Omniverse spielten eine Schlüsselrolle bei dieser Entwicklung. Die Nachfrage nach den Hopper-Chips ist laut Nvidia "außergewöhnlich", der Umsatz mit dem H200-Chip habe sich im Quartalsvergleich mehr als verdoppelt. Blackwell befinde sich in der Massenproduktion, die Nachfrage übersteige das Angebot bei weitem.
Huang sieht mehrere Gründe für die enorme Nachfrage: "Es gibt jetzt mehr Ersteller von Grundlagenmodellen als vor einem Jahr. Der Rechenaufwand für das Vor- und Nachtraining wächst weiter exponentiell. Es gibt mehr KI-native Start-ups als je zuvor, und die Zahl der erfolgreichen Rückschlussdienste steigt. Und mit der Einführung von ChatGPT o1, OpenAI o1, ist ein neues Skalierungsgesetz namens Test Time Scaling entstanden. All dies verbraucht eine Menge Rechenleistung."
Neben den großen Cloud-Anbietern entstünde mit "Sovereign AI" ein neuer Markt: Länder und Regionen bauen eigenständige KI-Infrastrukturen auf, um regionale Anforderungen zu erfüllen. Indien plant laut Nvidia bis Jahresende die Anzahl der Nvidia-GPUs, um das Zehnfache zu steigern. Japan baut mit SoftBank einen der leistungsstärksten Supercomputer, basierend auf Nvidias DGX Blackwell. Auch in Europa arbeiten Länder an regionalen Clouds und KI-Fabriken, so Huang.
OpenAIs o1-Modell zeigt eine neue Dimension der Skalierung - und Training skaliert weiter
Nvidia profitiere aber auch von neuen Optimierungstechniken wie Post-Training oder Test-Time Scaling, die die Nachfrage nach Rechenleistung weiter steigern. Beim Test-Time Scaling werden während der Laufzeit zusätzliche Ressourcen genutzt, um intelligentere Antworten in Echtzeit zu liefern. OpenAI setzt diese Technik für das neue o1-Modell ein. "Test-Time Scaling ist wie das Nachdenken vor dem Antworten - eine neue Dimension der KI-Leistung", so Huang.
Diese Trends schaffen eine neue Dimension der Skalierbarkeit, während die Skalierbarkeit des Trainings der grundlegenden Modelle laut Huang intakt bleibt: "Wie Sie wissen, ist dies ein empirisches Gesetz und kein grundlegendes physikalisches Gesetz. Aber die Beweise zeigen, dass es weiterhin skalierbar ist. Was wir jedoch lernen, ist, dass dies nicht ausreicht - wir haben jetzt zwei weitere Möglichkeiten entdeckt, wie wir skalieren können". Damit nimmt Huang auch Stellung zu jüngsten Berichten, wonach die Skalierung des Trainings an Grenzen stößt. Das könnte insbesondere Nvidia hart treffen, denn im Bereich des KI-Trainings ist das Unternehmen unangefochten Marktführer. Im Segment der KI-Inferenz gibt es jedoch deutlich mehr - wenn auch junge - Konkurrenz.