OpenAI und Nvidia haben eine Absichtserklärung (Letter of Intent) für eine strategische Partnerschaft angekündigt, um mindestens 10 Gigawatt Rechenleistung mit Nvidia-Systemen für OpenAIs nächste KI-Infrastruktur bereitzustellen.
Zur Einordnung: 10 Gigawatt entsprechen größenordnungsmäßig etwa der Leistung von zehn typischen Kernkraftwerken, da ein einzelner Reaktor typischerweise rund 1 GW erzeugt.
Nonstop und aufs Jahr gerechnet wären das theoretisch bei 100 Prozent Auslastung grob der Strombedarf von 8 bis 9 Millionen US‑Haushalten. Die größten angekündigten KI-Einzel‑Campusse liegen derzeit bei etwa 1 bis 2 GW.
Unterstützt wird dies durch eine geplante Investition von bis zu 100 Milliarden US-Dollar seitens Nvidia, abhängig von der Umsetzung jedes einzelnen Gigawatts. Der erste Gigawatt soll in der zweiten Jahreshälfte 2026 auf der Nvidia-Plattform Vera Rubin starten. Beide Unternehmen wollen ihre Hardware- und Softwarepläne aufeinander abstimmen.
Die Partnerschaft ergänzt laufende Projekte von OpenAI mit Microsoft, Oracle, SoftBank und Stargate-Partnern. Weitere Details sollen in den kommenden Wochen folgen.
KI-Rechenleistung als Burggraben
Mit diesen Schritten signalisiert OpenAI: Die Infrastruktur wird zum zentralen Vorteil – gerade weil sich Spitzen‑Modelle in ihrer Leistung annähern. OpenAI setzt darauf, dass KI-Modelle zukünftig viel länger "denken" dürfen, also Rechenläufe über Stunden oder Tage. Mit sehr großen Clustern schafft sich das Unternehmen so einen Infrastruktur‑Burggraben, den kleinere Anbieter kaum nachbilden können.
Parallel zur Nvidia‑Ankündigung schrieb CEO Sam Altman auf X, dass in den nächsten Wochen mehrere besonders rechenintensive Produkte starten. Wegen hoher Kosten sollen einige Funktionen zunächst für Pro‑Abos kommen oder Zusatzgebühren haben. Zugleich betonte Altman, die Kosten für "Intelligenz" langfristig zu senken und die Dienste breit verfügbar zu machen.
Neben der Nvidia-Kooperation versucht OpenAI auch, einen eigenen KI-Chip ans Netz zu bringen. Laut Reuters steht das Design des ersten hauseigenen Chips kurz vor der Finalisierung; das Design soll in den kommenden Monaten an TSMC gehen, erste Fertigungsversuche dauern mehrere Monate. Gefertigt wird in TSMCs modernster 3‑nm‑Technologie mit dem Ziel der Massenproduktion 2026.
OpenAI will so die Abhängigkeit von Nvidia verringern, ohne selbst zum Anbieter für Dritte zu werden: Ein Verkauf der Chips ist demnach nicht vorgesehen. Ähnlich verfährt Google mit seinen TPUs, die als strategischer Vorteil gelten. Google profitiert jedoch doppelt: Das Unternehmen ist weniger abhängig von Nvidia und hat ein Alleinstellungsmerkmal für die eigene KI‑Cloud.
Update: Post von Sam Altman ergänzt, Inhalt gestrafft.