Inhalt
summary Zusammenfassung

Nvidia hat im dritten Quartal des Geschäftsjahres 2025 erneut Rekordzahlen erzielt. Der Umsatz stieg auf 35,1 Milliarden US-Dollar. Doch laut CEO Jensen Huang steht das Unternehmen erst am Anfang zweier fundamentaler Entwicklungen, die langfristig für weiteres Wachstum sorgen sollen.

Anzeige

"Die enorme Entwicklung unseres Geschäfts wird von zwei grundlegenden Trends angetrieben, die den weltweiten Einsatz des NVIDIA-Computings vorantreiben", sagte Huang im Earnings Call. Der erste Trend sei die Modernisierung der globalen IT-Infrastruktur.

Huang sieht eine Transformation von beispiellosem Ausmaß: Die eine Billion US-Dollar schwere, auf CPUs basierende IT-Infrastruktur der Welt werde gerade modernisiert, um Machine Learning und KI zu unterstützen. "Die Recheninfrastruktur wird neu erfunden, es findet ein Plattformwechsel vom Programmieren zum maschinellen Lernen statt, von der Ausführung von Code auf CPUs zur Verarbeitung neuronaler Netze auf GPUs."

Huang erwartet, dass diese Transformation mehrere Jahre in Anspruch nehmen wird, da Unternehmen weltweit ihre Rechenzentren umrüsten. "Die traditionelle Rechenzentrumsinfrastruktur mit einem installierten Bestand von 1 Billion Dollar wird für Software 2.0 neu aufgebaut, die maschinelles Lernen einsetzt, um KI zu erzeugen."

Anzeige
Anzeige

KI-Fabriken für "digitale Intelligenz"

Der zweite fundamentale Trend ist laut Huang die Produktion von digitaler Intelligenz in "KI-Fabriken", die rund um die Uhr laufen. "Das Zeitalter der KI ist in vollem Gange. Generative KI ist nicht nur eine neue Softwarefähigkeit, sondern eine neue Industrie mit KI-Fabriken, die digitale Intelligenz herstellen, eine neue industrielle Revolution, die eine Multi-Billionen-Dollar-KI-Industrie schaffen kann."

Nvidias Hopper- und Blackwell-Architekturen sowie Plattformen wie Omniverse spielten eine Schlüsselrolle bei dieser Entwicklung. Die Nachfrage nach den Hopper-Chips ist laut Nvidia "außergewöhnlich", der Umsatz mit dem H200-Chip habe sich im Quartalsvergleich mehr als verdoppelt. Blackwell befinde sich in der Massenproduktion, die Nachfrage übersteige das Angebot bei weitem.

Huang sieht mehrere Gründe für die enorme Nachfrage: "Es gibt jetzt mehr Ersteller von Grundlagenmodellen als vor einem Jahr. Der Rechenaufwand für das Vor- und Nachtraining wächst weiter exponentiell. Es gibt mehr KI-native Start-ups als je zuvor, und die Zahl der erfolgreichen Rückschlussdienste steigt. Und mit der Einführung von ChatGPT o1, OpenAI o1, ist ein neues Skalierungsgesetz namens Test Time Scaling entstanden. All dies verbraucht eine Menge Rechenleistung."

Neben den großen Cloud-Anbietern entstünde mit "Sovereign AI" ein neuer Markt: Länder und Regionen bauen eigenständige KI-Infrastrukturen auf, um regionale Anforderungen zu erfüllen. Indien plant laut Nvidia bis Jahresende die Anzahl der Nvidia-GPUs, um das Zehnfache zu steigern. Japan baut mit SoftBank einen der leistungsstärksten Supercomputer, basierend auf Nvidias DGX Blackwell. Auch in Europa arbeiten Länder an regionalen Clouds und KI-Fabriken, so Huang.

OpenAIs o1-Modell zeigt eine neue Dimension der Skalierung - und Training skaliert weiter

Nvidia profitiere aber auch von neuen Optimierungstechniken wie Post-Training oder Test-Time Scaling, die die Nachfrage nach Rechenleistung weiter steigern. Beim Test-Time Scaling werden während der Laufzeit zusätzliche Ressourcen genutzt, um intelligentere Antworten in Echtzeit zu liefern. OpenAI setzt diese Technik für das neue o1-Modell ein. "Test-Time Scaling ist wie das Nachdenken vor dem Antworten - eine neue Dimension der KI-Leistung", so Huang.

Empfehlung

Diese Trends schaffen eine neue Dimension der Skalierbarkeit, während die Skalierbarkeit des Trainings der grundlegenden Modelle laut Huang intakt bleibt: "Wie Sie wissen, ist dies ein empirisches Gesetz und kein grundlegendes physikalisches Gesetz. Aber die Beweise zeigen, dass es weiterhin skalierbar ist. Was wir jedoch lernen, ist, dass dies nicht ausreicht - wir haben jetzt zwei weitere Möglichkeiten entdeckt, wie wir skalieren können". Damit nimmt Huang auch Stellung zu jüngsten Berichten, wonach die Skalierung des Trainings an Grenzen stößt. Das könnte insbesondere Nvidia hart treffen, denn im Bereich des KI-Trainings ist das Unternehmen unangefochten Marktführer. Im Segment der KI-Inferenz gibt es jedoch deutlich mehr - wenn auch junge - Konkurrenz.

Anzeige
Anzeige
Community beitreten
Kommt in die DECODER-Community bei Discord,Reddit, Twitter und Co. - wir freuen uns auf euch!
Unterstütze unsere unabhängige, frei zugängliche Berichterstattung. Jeder Betrag hilft und sichert unsere Zukunft. Jetzt unterstützen:
Banküberweisung
Zusammenfassung
  • Nvidia meldet Rekordumsatz von 35,1 Milliarden US-Dollar im dritten Quartal. CEO Jensen Huang sieht einige fundamentale Trends, die sein Unternehmen weiter wachsen lassen sollen: Die Modernisierung der globalen IT-Infrastruktur und den Aufbau von KI-Fabriken für digitale Intelligenz.
  • Die weltweite IT-Infrastruktur im Wert von einer Billion US-Dollar wird aktuell von CPU- auf GPU-basierte Systeme umgestellt. Huang erwartet, dass diese Transformation mehrere Jahre dauern wird, da Rechenzentren weltweit auf KI-Verarbeitung umgerüstet werden müssen.
  • Die Nachfrage nach Nvidias H200-Chips hat sich im Quartalsvergleich verdoppelt. Neue Techniken wie Test-Time Scaling, das OpenAI für sein o1-Modell nutzt, treiben den Bedarf an Rechenleistung weiter. Gleichzeitig bauen Länder wie Indien und Japan eigene KI-Infrastrukturen mit Nvidia-Hardware auf.
Max ist leitender Redakteur bei THE DECODER. Als studierter Philosoph beschäftigt er sich mit dem Bewusstsein, KI und der Frage, ob Maschinen wirklich denken können oder nur so tun als ob.
Community beitreten
Kommt in die DECODER-Community bei Discord,Reddit, Twitter und Co. - wir freuen uns auf euch!