OpenAI-CEO Sam Altman ist besorgt, dass Microsoft nicht schnell genug Server bereitstellen kann. Das KI-Unternehmen verhandelt nun mit Oracle über ein gigantisches Rechenzentrum in Texas.
OpenAI will sich bei Cloud-Rechenleistung künftig nicht mehr ausschließlich auf Microsoft verlassen. Wie The Information unter Berufung auf Insider berichtet, haben OpenAI-CEO Sam Altman und CFO Sarah Friar das letzte Woche nach der milliardenschweren Finanzierungsrunde Mitarbeitenden mitgeteilt.
Friar soll zuvor einigen Aktionären gesagt haben, dass Microsoft nicht angemessen schnell Rechenleistung für OpenAI bereitgestellt habe. Daher sei es notwendig, andere Rechenzentrumsdeals zu verfolgen. Die bestehenden Microsoft-Verträge sollen solche Abmachungen zulassen.
Speziell OpenAI-Chef Sam Altman soll besorgt sein, dass Microsoft nicht schnell genug Server bereitstellen kann, damit OpenAI der Konkurrenz von Elon Musks xAI voraus bleibt.
Musk hatte angekündigt, bis Jahresende mit Grok 3 das leistungsstärkste KI-Modell auf den Markt bringen zu wollen. Für Grok 2 arbeitete Musks KI-Firma xAI noch mit Oracle zusammen, Grok 3 will die Firma auf eigener Hardware trainieren. Dafür baut Musk in Memphis die "Gigafactory of Compute", das laut Musk "leistungsstärkste Trainingscluster der Welt".
OpenAI vertieft Partnerschaft mit Oracle
OpenAI kündigte im Sommer einen ersten Oracle-Deal an, in den Microsoft laut den Quellen von The Information nur am Rande involviert war. Dennoch zahlt der Deal auf Microsofts Azure-Umsatz ein, da OpenAI die Azure-Infrastruktur auf Oracle-Servern betreibt.
Nun führt OpenAI Gespräche mit Oracle, um das gesamte Rechenzentrum in Abilene zu mieten. Bis Mitte 2026 soll die Anlage knapp ein Gigawatt Leistung erreichen und damit mehrere hunderttausend Nvidia-KI-Chips beherbergen können. Die Leistung des Rechenzentrums soll bei ausreichender Energieversorgung auf bis zu zwei Gigawatt ausgebaut werden können.
Microsoft plant derweil, OpenAI im Rahmen des "Fairwater"-Projekts bis Ende nächsten Jahres Zugang zu rund 300.000 von Nvidias neuesten Grafikprozessoren, den GB200s, an zwei Rechenzentrumsstandorten in Wisconsin und Atlanta zu gewähren, berichtet The Information.
Altman soll Microsoft in den vergangenen Wochen gebeten haben, den Zeitplan für das Wisconsin-Projekt vorzuziehen. Dieses soll voraussichtlich in der zweiten Jahreshälfte 2025 mit GB200-Chips teilweise in Betrieb gehen.
OpenAIs KI-Chips werden konkreter
OpenAI plant, in Zukunft stärker auf selbst entwickelte KI-Chips zu setzen, um den wachsenden Bedarf an Rechenleistung für seine KI-Modelle zu decken und insbesondere die Kosten zu senken. Dazu investiert das Unternehmen in das Design eigener ASIC-Chips.
OpenAI arbeitet bei der Entwicklung der Chips angeblich mit den US-Unternehmen Broadcom und Marvell zusammen. Berichten zufolge hat OpenAI die erste Charge von TSMCs neuestem A16-Angstrom-Prozess für die Entwicklung eigener KI-Chips reserviert. Die Massenproduktion soll in der zweiten Jahreshälfte 2026 beginnen.