Inhalt
summary Zusammenfassung

Nvidia dominiert den Markt für KI-Rechenleistung und bestimmt die Preise. Den großen KI-Anbietern gefällt diese Entwicklung nicht - und sie entwickeln Ausweichstrategien.

Anzeige

Nach Google und Amazon will nun auch Microsoft in die Entwicklung eigener KI-Chips einsteigen, berichtet The Information. Der Chip mit dem Codenamen "Athena" soll auf Microsofts Entwicklerkonferenz Ignite vorgestellt werden, die vom 14. bis 17. November in Seattle stattfindet. Der Chip sei seit 2019 in Entwicklung.

KI-Chip für Cloud-Rechenzentren

Der Athena-Chip wurde laut einer Quelle von The Information bereits ausgewählten Gruppen von Microsoft und OpenAI vorgestellt. Er soll der H100-GPU von Nvidia ebenbürtig sein und Microsoft auf Augenhöhe mit Google und Amazon bringen.

Microsoft erwägt, den Chip auch als Cloud-Lösung für KI-Entwicklerteams anzubieten. Das ist insofern eine Herausforderung, als viele Entwickler auf Nvidias CUDA geschult und Machine-Learning-Frameworks für Nvidia-Chips optimiert sind.

Anzeige
Anzeige

Derzeit nutzen die KI-Rechenzentren von Microsoft Grafikkarten von Nvidia, um große Sprachmodelle zu trainieren und den Kunden zur Verfügung zu stellen. Auch Google, Amazon und OpenAI verwenden Grafikprozessoren von Nvidia.

Big AI wehrt sich gegen Nvidias Vormachtstellung

Microsoft arbeitet auch eng mit Advanced Micro Devices (AMD) an AMDs nächstem KI-Chip, dem MI300X, so die Quelle von The Information.

AMDs speziell für KI-Anwendungen entwickelter Chip soll im vierten Quartal auf den Markt kommen. Laut AMD-Chefin Lisa Su arbeitet das Unternehmen bereits mit "führenden Cloud-Anbietern, großen Unternehmen und vielen führenden KI-Unternehmen" zusammen.

In jedem Fall scheint es, dass die großen KI-Unternehmen natürlich versuchen, die Vormachtstellung von Nvidia im Bereich der KI-Chips zu reduzieren, um sich zumindest in eine bessere Verhandlungsposition zu bringen. Seit Beginn des ChatGPT-Hypes sind die Verkaufszahlen von Nvidia in die Höhe geschnellt und es gibt ständige Lieferengpässe.

Google zum Beispiel pusht seine TPUs (Tensor Processing Unit) und schließt Exklusivverträge mit KI-Unternehmen wie Midjourney und Character AI, um mehr Entwickler für die eigene Chip-Infrastruktur zu gewinnen und hochwertige Praxisbeispiele zu erhalten.

Empfehlung

Amazon investiert in Anthropic, den größten OpenAI-Wettbewerber. Anthropic wird künftig Amazons KI-Chips Trainium und Inferentia für das KI-Training und die Inferenz des Chatbots Claude verwenden. Auch OpenAI zieht in Betracht, eigene KI-Chips zu entwickeln.

Anzeige
Anzeige
Community beitreten
Kommt in die DECODER-Community bei Discord,Reddit, Twitter und Co. - wir freuen uns auf euch!
Unterstütze unsere unabhängige, frei zugängliche Berichterstattung. Jeder Betrag hilft und sichert unsere Zukunft. Jetzt unterstützen:
Banküberweisung
Zusammenfassung
  • Microsoft entwickelt den KI-Chip "Athena", der Nvidias H100-GPU ebenbürtig sein und das Unternehmen im Bereich der KI-Hardware auf eine Stufe mit Google und Amazon stellen soll.
  • Der Athena-Chip soll auf der Entwicklerkonferenz Ignite im November vorgestellt werden und könnte als Cloud-Lösung für KI-Entwicklerteams angeboten werden.
  • Große KI-Unternehmen wie Google und Amazon suchen nach Alternativen zur Dominanz von Nvidia auf dem Markt für KI-Chips, um ihre Verhandlungsposition zu verbessern und Lieferengpässe zu vermeiden.
Quellen
Online-Journalist Matthias ist Gründer und Herausgeber von THE DECODER. Er ist davon überzeugt, dass Künstliche Intelligenz die Beziehung zwischen Mensch und Computer grundlegend verändern wird.
Community beitreten
Kommt in die DECODER-Community bei Discord,Reddit, Twitter und Co. - wir freuen uns auf euch!