Inhalt
summary Zusammenfassung

OpenAI und Nvidia haben eine Absichtserklärung (Letter of Intent) für eine strategische Partnerschaft angekündigt, um mindestens 10 Gigawatt Rechenleistung mit Nvidia-Systemen für OpenAIs nächste KI-Infrastruktur bereitzustellen.

Anzeige

Zur Einordnung: 10 Gigawatt entsprechen größenordnungsmäßig etwa der Leistung von zehn typischen Kernkraftwerken, da ein einzelner Reaktor typischerweise rund 1 GW erzeugt.

Nonstop und aufs Jahr gerechnet wären das theoretisch bei 100 Prozent Auslastung grob der Strombedarf von 8 bis 9 Millionen US‑Haushalten. Die größten angekündigten KI-Einzel‑Campusse liegen derzeit bei etwa 1 bis 2 GW.

Unterstützt wird dies durch eine geplante Investition von bis zu 100 Milliarden US-Dollar seitens Nvidia, abhängig von der Umsetzung jedes einzelnen Gigawatts. Der erste Gigawatt soll in der zweiten Jahreshälfte 2026 auf der Nvidia-Plattform Vera Rubin starten. Beide Unternehmen wollen ihre Hardware- und Softwarepläne aufeinander abstimmen.

Anzeige
Anzeige

Die Partnerschaft ergänzt laufende Projekte von OpenAI mit Microsoft, Oracle, SoftBank und Stargate-Partnern. Weitere Details sollen in den kommenden Wochen folgen.

KI-Rechenleistung als Burggraben

Mit diesen Schritten signalisiert OpenAI: Die Infrastruktur wird zum zentralen Vorteil – gerade weil sich Spitzen‑Modelle in ihrer Leistung annähern. OpenAI setzt darauf, dass KI-Modelle zukünftig viel länger "denken" dürfen, also Rechenläufe über Stunden oder Tage. Mit sehr großen Clustern schafft sich das Unternehmen so einen Infrastruktur‑Burggraben, den kleinere Anbieter kaum nachbilden können.

Parallel zur Nvidia‑Ankündigung schrieb CEO Sam Altman auf X, dass in den nächsten Wochen mehrere besonders rechenintensive Produkte starten. Wegen hoher Kosten sollen einige Funktionen zunächst für Pro‑Abos kommen oder Zusatzgebühren haben. Zugleich betonte Altman, die Kosten für "Intelligenz" langfristig zu senken und die Dienste breit verfügbar zu machen.

Neben der Nvidia-Kooperation versucht OpenAI auch, einen eigenen KI-Chip ans Netz zu bringen. Laut Reuters steht das Design des ersten hauseigenen Chips kurz vor der Finalisierung; das Design soll in den kommenden Monaten an TSMC gehen, erste Fertigungsversuche dauern mehrere Monate. Gefertigt wird in TSMCs modernster 3‑nm‑Technologie mit dem Ziel der Massenproduktion 2026.

OpenAI will so die Abhängigkeit von Nvidia verringern, ohne selbst zum Anbieter für Dritte zu werden: Ein Verkauf der Chips ist demnach nicht vorgesehen. Ähnlich verfährt Google mit seinen TPUs, die als strategischer Vorteil gelten. Google profitiert jedoch doppelt: Das Unternehmen ist weniger abhängig von Nvidia und hat ein Alleinstellungsmerkmal für die eigene KI‑Cloud.

Empfehlung

Update: Post von Sam Altman ergänzt, Inhalt gestrafft.

Anzeige
Anzeige
Community beitreten
Kommt in die DECODER-Community bei Discord,Reddit, Twitter und Co. - wir freuen uns auf euch!
Unterstütze unsere unabhängige, frei zugängliche Berichterstattung. Jeder Betrag hilft und sichert unsere Zukunft. Jetzt unterstützen:
Banküberweisung
Zusammenfassung
  • OpenAI und Nvidia planen eine strategische Partnerschaft, um mindestens 10 Gigawatt Rechenleistung mit Nvidia-Systemen für OpenAIs nächste KI-Infrastruktur bereitzustellen – das entspricht etwa der Leistung von zehn Kernkraftwerken.
  • Nvidia will dafür bis zu 100 Milliarden US-Dollar investieren, abhängig von der Umsetzung; der erste Gigawatt soll ab der zweiten Jahreshälfte 2026 auf der Nvidia-Plattform Vera Rubin bereitstehen, während Hardware- und Softwarepläne eng abgestimmt werden.
  • Parallel dazu arbeitet OpenAI an einem eigenen KI-Chip, der ab 2026 in TSMCs 3-nm-Technologie gefertigt werden soll, um die Abhängigkeit von Nvidia zu reduzieren. Ein Verkauf der Chips an Dritte ist nicht vorgesehen.
Quellen
Online-Journalist Matthias ist Gründer und Herausgeber von THE DECODER. Er ist davon überzeugt, dass Künstliche Intelligenz die Beziehung zwischen Mensch und Computer grundlegend verändern wird.
Community beitreten
Kommt in die DECODER-Community bei Discord,Reddit, Twitter und Co. - wir freuen uns auf euch!