Skip to content

OpenAI sucht für mehr Cloud-Rechenleistung nach Microsoft-Alternativen

Image description
Midjourney prompted by THE DECODER

Kurz & Knapp

  • OpenAI möchte sich bei der Cloud-Rechenleistung nicht mehr ausschließlich auf Microsoft verlassen. CEO Sam Altman ist besorgt, dass Microsoft nicht schnell genug Server bereitstellen kann, um mit der Konkurrenz von Elon Musks xAI Schritt zu halten.
  • OpenAI führt Gespräche mit Oracle, um ein gesamtes Rechenzentrum in Abilene zu mieten. Bis Mitte 2026 soll die Anlage knapp 1 Gigawatt Leistung erreichen und damit mehrere hunderttausend Nvidia-KI-Chips beherbergen können.
  • Um den wachsenden Bedarf an Rechenleistung für seine KI-Modelle zu decken und Kosten zu senken, plant OpenAI zudem, in Zukunft stärker auf selbst entwickelte KI-Chips zu setzen. Dazu arbeitet das Unternehmen mit Broadcom, Marvell und TSMC zusammen.

OpenAI-CEO Sam Altman ist besorgt, dass Microsoft nicht schnell genug Server bereitstellen kann. Das KI-Unternehmen verhandelt nun mit Oracle über ein gigantisches Rechenzentrum in Texas.

OpenAI will sich bei Cloud-Rechenleistung künftig nicht mehr ausschließlich auf Microsoft verlassen. Wie The Information unter Berufung auf Insider berichtet, haben OpenAI-CEO Sam Altman und CFO Sarah Friar das letzte Woche nach der milliardenschweren Finanzierungsrunde Mitarbeitenden mitgeteilt.

Friar soll zuvor einigen Aktionären gesagt haben, dass Microsoft nicht angemessen schnell Rechenleistung für OpenAI bereitgestellt habe. Daher sei es notwendig, andere Rechenzentrumsdeals zu verfolgen. Die bestehenden Microsoft-Verträge sollen solche Abmachungen zulassen.

Speziell OpenAI-Chef Sam Altman soll besorgt sein, dass Microsoft nicht schnell genug Server bereitstellen kann, damit OpenAI der Konkurrenz von Elon Musks xAI voraus bleibt.

Musk hatte angekündigt, bis Jahresende mit Grok 3 das leistungsstärkste KI-Modell auf den Markt bringen zu wollen. Für Grok 2 arbeitete Musks KI-Firma xAI noch mit Oracle zusammen, Grok 3 will die Firma auf eigener Hardware trainieren. Dafür baut Musk in Memphis die "Gigafactory of Compute", das laut Musk "leistungsstärkste Trainingscluster der Welt".

OpenAI vertieft Partnerschaft mit Oracle

OpenAI kündigte im Sommer einen ersten Oracle-Deal an, in den Microsoft laut den Quellen von The Information nur am Rande involviert war. Dennoch zahlt der Deal auf Microsofts Azure-Umsatz ein, da OpenAI die Azure-Infrastruktur auf Oracle-Servern betreibt.

Nun führt OpenAI Gespräche mit Oracle, um das gesamte Rechenzentrum in Abilene zu mieten. Bis Mitte 2026 soll die Anlage knapp ein Gigawatt Leistung erreichen und damit mehrere hunderttausend Nvidia-KI-Chips beherbergen können. Die Leistung des Rechenzentrums soll bei ausreichender Energieversorgung auf bis zu zwei Gigawatt ausgebaut werden können.

Microsoft plant derweil, OpenAI im Rahmen des "Fairwater"-Projekts bis Ende nächsten Jahres Zugang zu rund 300.000 von Nvidias neuesten Grafikprozessoren, den GB200s, an zwei Rechenzentrumsstandorten in Wisconsin und Atlanta zu gewähren, berichtet The Information.

Altman soll Microsoft in den vergangenen Wochen gebeten haben, den Zeitplan für das Wisconsin-Projekt vorzuziehen. Dieses soll voraussichtlich in der zweiten Jahreshälfte 2025 mit GB200-Chips teilweise in Betrieb gehen.

OpenAIs KI-Chips werden konkreter

OpenAI plant, in Zukunft stärker auf selbst entwickelte KI-Chips zu setzen, um den wachsenden Bedarf an Rechenleistung für seine KI-Modelle zu decken und insbesondere die Kosten zu senken. Dazu investiert das Unternehmen in das Design eigener ASIC-Chips.

OpenAI arbeitet bei der Entwicklung der Chips angeblich mit den US-Unternehmen Broadcom und Marvell zusammen. Berichten zufolge hat OpenAI die erste Charge von TSMCs neuestem A16-Angstrom-Prozess für die Entwicklung eigener KI-Chips reserviert. Die Massenproduktion soll in der zweiten Jahreshälfte 2026 beginnen.

Quelle: The Information

KI-News ohne Hype
Von Menschen kuratiert.

  • Mehr als 20 Prozent Launch-Rabatt.
  • Lesen ohne Ablenkung – keine Google-Werbebanner.
  • Zugang zum Kommentarsystem und Austausch mit der Community.
  • Wöchentlicher KI-Newsletter.
  • 6× jährlich: „KI Radar“ – Deep-Dives zu den wichtigsten KI-Themen.
  • Bis zu 25 % Rabatt auf KI Pro Online-Events.
  • Zugang zum kompletten Archiv der letzten zehn Jahre.
  • Die neuesten KI‑Infos von The Decoder – klar und auf den Punkt.
The Decoder abonnieren