OpenAI nutzt erstmals Googles KI-Chips für ChatGPT und andere Produkte. Der Schritt markiert eine strategische Abkehr vom bisherigen Fokus auf Nvidia-GPUs und Microsofts Infrastruktur.
OpenAI verwendet laut einem Bericht von The Information neuerdings Tensor Processing Units (TPUs) von Google, um ChatGPT und andere KI-Produkte zu betreiben. Es ist das erste Mal, dass OpenAI in größerem Umfang auf Chips jenseits von Nvidias Grafikprozessoren zurückgreift.
Die TPUs werden über Google Cloud gemietet. Sie sollen helfen, die Kosten für die Inferenz zu senken – also den Betrieb bereits trainierter Modelle zur Beantwortung neuer Anfragen. OpenAI zählt zu den größten Abnehmern von Nvidia-Grafikprozessoren, die traditionell sowohl für das Training als auch für die Ausführung großer Sprachmodelle genutzt werden.
Die Zusammenarbeit ist limitiert: Laut The Information stellt Google seinem Konkurrenten nicht die leistungsfähigsten TPU-Modelle zur Verfügung. Ein Google-Cloud-Mitarbeiter bestätigte diese Einschränkung.
Zeichen an Microsoft
Trotzdem könnte der Schritt Signalwirkung haben – insbesondere für Microsoft. Der Konzern ist OpenAIs wichtigster Investor und betreibt die Infrastruktur, auf der viele OpenAI-Produkte bislang laufen.
Dass OpenAI nun erstmals auf Infrastruktur eines direkten Microsoft-Konkurrenten zurückgreift, dürfte auch als strategisches Druckmittel zu verstehen sein. Zwischen OpenAI-CEO Sam Altman und Microsoft-Chef Satya Nadella laufen intensive Diskussionen zur Zusammenarbeit der beiden Unternehmen. Zuvor erweiterte OpenAI seine Rechenkapazitäten in Zusammenarbeit mit Oracle.
Googles Cloud-Angebot steht nicht nur im Wettbewerb mit Microsoft Azure, sondern ist auch ein zentraler Wachstumstreiber für Google. Die Entscheidung, ausgerechnet auf diese Infrastruktur auszuweichen, betrifft damit nicht nur den KI-Markt, sondern auch das Cloud-Geschäft – jenes Segment, das Microsofts Börsenwert in den letzten Jahren maßgeblich mitgeprägt hat.
Google hatte seine TPUs ursprünglich nur intern verwendet. Inzwischen öffnet das Unternehmen sein TPU-Angebot zunehmend für externe Partner. Zu den Kunden zählen neben OpenAI auch Apple sowie die von ehemaligen OpenAI-Führungskräften gegründeten Start-ups Anthropic und Safe Superintelligence.
Laut einer Analyse des Forschungsunternehmens Epoch AI verfügt Google mit dieser Infrastruktur über die weltweit größte KI-Rechenkapazität. Die TPU-Cloud ist ein zentraler Bestandteil der KI-Strategie des Unternehmens und steht insbesondere beim Betrieb der Modelle in direkter Konkurrenz zu Nvidias GPU-Angebot.