Nvidia dominiert den Markt für KI-Rechenleistung und bestimmt die Preise. Den großen KI-Anbietern gefällt diese Entwicklung nicht - und sie entwickeln Ausweichstrategien.
Nach Google und Amazon will nun auch Microsoft in die Entwicklung eigener KI-Chips einsteigen, berichtet The Information. Der Chip mit dem Codenamen "Athena" soll auf Microsofts Entwicklerkonferenz Ignite vorgestellt werden, die vom 14. bis 17. November in Seattle stattfindet. Der Chip sei seit 2019 in Entwicklung.
KI-Chip für Cloud-Rechenzentren
Der Athena-Chip wurde laut einer Quelle von The Information bereits ausgewählten Gruppen von Microsoft und OpenAI vorgestellt. Er soll der H100-GPU von Nvidia ebenbürtig sein und Microsoft auf Augenhöhe mit Google und Amazon bringen.
Microsoft erwägt, den Chip auch als Cloud-Lösung für KI-Entwicklerteams anzubieten. Das ist insofern eine Herausforderung, als viele Entwickler auf Nvidias CUDA geschult und Machine-Learning-Frameworks für Nvidia-Chips optimiert sind.
Derzeit nutzen die KI-Rechenzentren von Microsoft Grafikkarten von Nvidia, um große Sprachmodelle zu trainieren und den Kunden zur Verfügung zu stellen. Auch Google, Amazon und OpenAI verwenden Grafikprozessoren von Nvidia.
Big AI wehrt sich gegen Nvidias Vormachtstellung
Microsoft arbeitet auch eng mit Advanced Micro Devices (AMD) an AMDs nächstem KI-Chip, dem MI300X, so die Quelle von The Information.
AMDs speziell für KI-Anwendungen entwickelter Chip soll im vierten Quartal auf den Markt kommen. Laut AMD-Chefin Lisa Su arbeitet das Unternehmen bereits mit "führenden Cloud-Anbietern, großen Unternehmen und vielen führenden KI-Unternehmen" zusammen.
In jedem Fall scheint es, dass die großen KI-Unternehmen natürlich versuchen, die Vormachtstellung von Nvidia im Bereich der KI-Chips zu reduzieren, um sich zumindest in eine bessere Verhandlungsposition zu bringen. Seit Beginn des ChatGPT-Hypes sind die Verkaufszahlen von Nvidia in die Höhe geschnellt und es gibt ständige Lieferengpässe.
Google zum Beispiel pusht seine TPUs (Tensor Processing Unit) und schließt Exklusivverträge mit KI-Unternehmen wie Midjourney und Character AI, um mehr Entwickler für die eigene Chip-Infrastruktur zu gewinnen und hochwertige Praxisbeispiele zu erhalten.
Amazon investiert in Anthropic, den größten OpenAI-Wettbewerber. Anthropic wird künftig Amazons KI-Chips Trainium und Inferentia für das KI-Training und die Inferenz des Chatbots Claude verwenden. Auch OpenAI zieht in Betracht, eigene KI-Chips zu entwickeln.