Inhalt
summary Zusammenfassung

OpenAI nutzt erstmals Googles KI-Chips für ChatGPT und andere Produkte. Der Schritt markiert eine strategische Abkehr vom bisherigen Fokus auf Nvidia-GPUs und Microsofts Infrastruktur.

Anzeige

OpenAI verwendet laut einem Bericht von The Information neuerdings Tensor Processing Units (TPUs) von Google, um ChatGPT und andere KI-Produkte zu betreiben. Es ist das erste Mal, dass OpenAI in größerem Umfang auf Chips jenseits von Nvidias Grafikprozessoren zurückgreift.

Die TPUs werden über Google Cloud gemietet. Sie sollen helfen, die Kosten für die Inferenz zu senken – also den Betrieb bereits trainierter Modelle zur Beantwortung neuer Anfragen. OpenAI zählt zu den größten Abnehmern von Nvidia-Grafikprozessoren, die traditionell sowohl für das Training als auch für die Ausführung großer Sprachmodelle genutzt werden.

Die Zusammenarbeit ist limitiert: Laut The Information stellt Google seinem Konkurrenten nicht die leistungsfähigsten TPU-Modelle zur Verfügung. Ein Google-Cloud-Mitarbeiter bestätigte diese Einschränkung.

Anzeige
Anzeige

Zeichen an Microsoft

Trotzdem könnte der Schritt Signalwirkung haben – insbesondere für Microsoft. Der Konzern ist OpenAIs wichtigster Investor und betreibt die Infrastruktur, auf der viele OpenAI-Produkte bislang laufen.

Dass OpenAI nun erstmals auf Infrastruktur eines direkten Microsoft-Konkurrenten zurückgreift, dürfte auch als strategisches Druckmittel zu verstehen sein. Zwischen OpenAI-CEO Sam Altman und Microsoft-Chef Satya Nadella laufen intensive Diskussionen zur Zusammenarbeit der beiden Unternehmen. Zuvor erweiterte OpenAI seine Rechenkapazitäten in Zusammenarbeit mit Oracle.

Googles Cloud-Angebot steht nicht nur im Wettbewerb mit Microsoft Azure, sondern ist auch ein zentraler Wachstumstreiber für Google. Die Entscheidung, ausgerechnet auf diese Infrastruktur auszuweichen, betrifft damit nicht nur den KI-Markt, sondern auch das Cloud-Geschäft – jenes Segment, das Microsofts Börsenwert in den letzten Jahren maßgeblich mitgeprägt hat.

Google hatte seine TPUs ursprünglich nur intern verwendet. Inzwischen öffnet das Unternehmen sein TPU-Angebot zunehmend für externe Partner. Zu den Kunden zählen neben OpenAI auch Apple sowie die von ehemaligen OpenAI-Führungskräften gegründeten Start-ups Anthropic und Safe Superintelligence.

Laut einer Analyse des Forschungsunternehmens Epoch AI verfügt Google mit dieser Infrastruktur über die weltweit größte KI-Rechenkapazität. Die TPU-Cloud ist ein zentraler Bestandteil der KI-Strategie des Unternehmens und steht insbesondere beim Betrieb der Modelle in direkter Konkurrenz zu Nvidias GPU-Angebot.

Anzeige
Anzeige
Community beitreten
Kommt in die DECODER-Community bei Discord,Reddit, Twitter und Co. - wir freuen uns auf euch!
Empfehlung
Unterstütze unsere unabhängige, frei zugängliche Berichterstattung. Jeder Betrag hilft und sichert unsere Zukunft. Jetzt unterstützen:
Banküberweisung
Zusammenfassung
  • OpenAI nutzt erstmals Googles TPU-Chips, um ChatGPT und andere KI-Produkte zu betreiben, statt wie bisher ausschließlich auf Nvidia-GPUs und Microsofts Infrastruktur zu setzen. Die TPUs sollen vor allem die Kosten für die Inferenz senken.
  • Google stellt OpenAI dabei nicht seine leistungsfähigsten TPU-Modelle zur Verfügung, wie ein Google-Cloud-Mitarbeiter bestätigt. Die Zusammenarbeit ist also begrenzt, markiert aber einen bemerkenswerten Schritt in der Partnerschaft zwischen den beiden Unternehmen.
  • Der Wechsel dürfte Signalwirkung für Microsoft haben, OpenAIs wichtigsten Investor und bisherigen Infrastrukturpartner. Dass OpenAI nun erstmals Infrastruktur eines direkten Microsoft-Konkurrenten nutzt, dürfte auch als strategisches Druckmittel in den laufenden Verhandlungen zwischen den Unternehmen dienen.
Quellen
Online-Journalist Matthias ist Gründer und Herausgeber von THE DECODER. Er ist davon überzeugt, dass Künstliche Intelligenz die Beziehung zwischen Mensch und Computer grundlegend verändern wird.
Community beitreten
Kommt in die DECODER-Community bei Discord,Reddit, Twitter und Co. - wir freuen uns auf euch!