Inhalt
summary Zusammenfassung

OpenAI-CEO Sam Altman ist besorgt, dass Microsoft nicht schnell genug Server bereitstellen kann. Das KI-Unternehmen verhandelt nun mit Oracle über ein gigantisches Rechenzentrum in Texas.

Anzeige

OpenAI will sich bei Cloud-Rechenleistung künftig nicht mehr ausschließlich auf Microsoft verlassen. Wie The Information unter Berufung auf Insider berichtet, haben OpenAI-CEO Sam Altman und CFO Sarah Friar das letzte Woche nach der milliardenschweren Finanzierungsrunde Mitarbeitenden mitgeteilt.

Friar soll zuvor einigen Aktionären gesagt haben, dass Microsoft nicht angemessen schnell Rechenleistung für OpenAI bereitgestellt habe. Daher sei es notwendig, andere Rechenzentrumsdeals zu verfolgen. Die bestehenden Microsoft-Verträge sollen solche Abmachungen zulassen.

Speziell OpenAI-Chef Sam Altman soll besorgt sein, dass Microsoft nicht schnell genug Server bereitstellen kann, damit OpenAI der Konkurrenz von Elon Musks xAI voraus bleibt.

Anzeige
Anzeige

Musk hatte angekündigt, bis Jahresende mit Grok 3 das leistungsstärkste KI-Modell auf den Markt bringen zu wollen. Für Grok 2 arbeitete Musks KI-Firma xAI noch mit Oracle zusammen, Grok 3 will die Firma auf eigener Hardware trainieren. Dafür baut Musk in Memphis die "Gigafactory of Compute", das laut Musk "leistungsstärkste Trainingscluster der Welt".

OpenAI vertieft Partnerschaft mit Oracle

OpenAI kündigte im Sommer einen ersten Oracle-Deal an, in den Microsoft laut den Quellen von The Information nur am Rande involviert war. Dennoch zahlt der Deal auf Microsofts Azure-Umsatz ein, da OpenAI die Azure-Infrastruktur auf Oracle-Servern betreibt.

Nun führt OpenAI Gespräche mit Oracle, um das gesamte Rechenzentrum in Abilene zu mieten. Bis Mitte 2026 soll die Anlage knapp ein Gigawatt Leistung erreichen und damit mehrere hunderttausend Nvidia-KI-Chips beherbergen können. Die Leistung des Rechenzentrums soll bei ausreichender Energieversorgung auf bis zu zwei Gigawatt ausgebaut werden können.

Microsoft plant derweil, OpenAI im Rahmen des "Fairwater"-Projekts bis Ende nächsten Jahres Zugang zu rund 300.000 von Nvidias neuesten Grafikprozessoren, den GB200s, an zwei Rechenzentrumsstandorten in Wisconsin und Atlanta zu gewähren, berichtet The Information.

Altman soll Microsoft in den vergangenen Wochen gebeten haben, den Zeitplan für das Wisconsin-Projekt vorzuziehen. Dieses soll voraussichtlich in der zweiten Jahreshälfte 2025 mit GB200-Chips teilweise in Betrieb gehen.

Empfehlung

OpenAIs KI-Chips werden konkreter

OpenAI plant, in Zukunft stärker auf selbst entwickelte KI-Chips zu setzen, um den wachsenden Bedarf an Rechenleistung für seine KI-Modelle zu decken und insbesondere die Kosten zu senken. Dazu investiert das Unternehmen in das Design eigener ASIC-Chips.

OpenAI arbeitet bei der Entwicklung der Chips angeblich mit den US-Unternehmen Broadcom und Marvell zusammen. Berichten zufolge hat OpenAI die erste Charge von TSMCs neuestem A16-Angstrom-Prozess für die Entwicklung eigener KI-Chips reserviert. Die Massenproduktion soll in der zweiten Jahreshälfte 2026 beginnen.

Anzeige
Anzeige
Community beitreten
Kommt in die DECODER-Community bei Discord,Reddit, Twitter und Co. - wir freuen uns auf euch!
Unterstütze unsere unabhängige, frei zugängliche Berichterstattung. Jeder Betrag hilft und sichert unsere Zukunft. Jetzt unterstützen:
Banküberweisung
Zusammenfassung
  • OpenAI möchte sich bei der Cloud-Rechenleistung nicht mehr ausschließlich auf Microsoft verlassen. CEO Sam Altman ist besorgt, dass Microsoft nicht schnell genug Server bereitstellen kann, um mit der Konkurrenz von Elon Musks xAI Schritt zu halten.
  • OpenAI führt Gespräche mit Oracle, um ein gesamtes Rechenzentrum in Abilene zu mieten. Bis Mitte 2026 soll die Anlage knapp 1 Gigawatt Leistung erreichen und damit mehrere hunderttausend Nvidia-KI-Chips beherbergen können.
  • Um den wachsenden Bedarf an Rechenleistung für seine KI-Modelle zu decken und Kosten zu senken, plant OpenAI zudem, in Zukunft stärker auf selbst entwickelte KI-Chips zu setzen. Dazu arbeitet das Unternehmen mit Broadcom, Marvell und TSMC zusammen.
Quellen
Online-Journalist Matthias ist Gründer und Herausgeber von THE DECODER. Er ist davon überzeugt, dass Künstliche Intelligenz die Beziehung zwischen Mensch und Computer grundlegend verändern wird.
Community beitreten
Kommt in die DECODER-Community bei Discord,Reddit, Twitter und Co. - wir freuen uns auf euch!