Nachdem AMD teilweise in der Kritik steht, kaum vom gigantischen KI-Wachstum profitiert zu haben, will der Chipkonzern einen neuen Angriff auf das derzeit nahezu konkurrenzlose Nvidia wagen.
Laut einer ausführlichen Industrieanalyse von SemiAnalysis bereitet AMD einen umfassenden Strategiewechsel vor, um Marktanteile im lukrativen KI-Beschleunigergeschäft zu gewinnen. Die Initiative wird von CEO Lisa Su persönlich vorangetrieben und zielt darauf ab, Nvidia in mehreren Bereichen anzugreifen – mit neuer Software, angepasster Hardware und aggressiver Preispolitik.
CEO Lisa Su versetzt AMD in den "Wartime Mode"
Auslöser für den Strategiewechsel war eine kritische Analyse von SemiAnalysis im Dezember 2024, die AMDs Softwareplattform ROCm als nicht konkurrenzfähig einstufte. Die Analyse kam zu dem Schluss, dass mit AMDs GPUs aufgrund massiver Softwareprobleme selbst grundlegendes KI-Training kaum möglich sei.
Lisa Su reagierte direkt: Nur Stunden nach der Veröffentlichung nahm sie Kontakt mit dem SemiAnalysis-Team und ihren eigenen Ingenieur:innen auf, erkannte die Defizite an und leitete laut Bericht einen Kulturwandel bei AMD ein. Der neue Kurs ist laut Dylan Patel von SemiAnalysis eine Art "AMD 2.0" und "Wartime Mode", um die Lücken zu Nvidia zu schließen.
Im Zentrum steht die Verbesserung der Softwareplattform ROCm. AMD investiert laut SemiAnalysis nun massiv in Benutzerfreundlichkeit, Stabilität und Leistung. Besonderes Augenmerk gilt der besseren Integration der dominierenden Programmiersprache Python sowie der Einbindung in KI-Frameworks wie PyTorch. Auch die Entwicklerwerkzeuge für Rechenzentren – etwa Docker-Support, Monitoring und Multi-GPU-Kommunikation – sollen optimiert werden.
Ein weiterer Schwerpunkt liegt auf der Entwickler-Community. AMD baut ein eigenes Developer Relations Team auf, das aktiv mit Entwickler:innen interagieren soll – ein zentraler Erfolgsfaktor für Nvidias CUDA-Ökosystem.
AMD plant außerdem eine kostenlose Cloud-Plattform, auf der Entwickler AMD-GPUs ausprobieren können. Durch eine engere Anbindung an gängige Entwicklungswerkzeuge soll die Nutzung erleichtert und verbreitet werden.
MI450X als Hardware-Gegenoffensive
AMD will ab Ende 2026 mit der neuen MI450X-Serie direkt gegen Nvidias nächste große Rechenzentrumslösung antreten. Ziel ist vor allem das ebenfalls für diesen Zeitraum erwartete VR200 NVL144-System. AMD plant dafür eigene Racks mit 64 oder 128 GPUs, die über "Infinity Fabric over Ethernet" verbunden sind.
Auch wenn sich das Konzept grob mit Nvidias aktuellem Rack-System GB200 NVL72 vergleichen lässt, zielt AMDs MI450X-Strategie vor allem auf die kommende Nvidia-Generation. Durch die Übernahme des Systembauers ZT Systems will sich AMD das nötige Fachwissen für den Bau solcher großen Rechenzentrumssysteme sichern.
Da ROCm derzeit weiterhin nicht mit Nvidias CUDA mithalten kann, versucht AMD, Kunden mit günstigeren Preisen zu überzeugen. Die aktuelle MI300X-Generation gilt laut Bericht zwar als preislich attraktiv, muss sich in der Praxis aber oft mit Nvidias nächster Chip-Generation messen, was den Wettbewerb erschwert. Die neuere MI355X-Reihe werde dabei eher als Alternative zu Nvidias luftgekühlten HGX-Systemen positioniert – nicht als direkter Konkurrent zur leistungsstärkeren Rack-Lösung GB200 NVL72.
Trotz neuer Entschlossenheit bleibt der Weg für AMD schwierig. Laut SemiAnalysis sind vor allem die anhaltende Softwarelücke zu CUDA und der Kampf um Fachkräfte entscheidend. AMD zahle bisher zu wenig, um Top-Talente zu halten oder anzuziehen. Ein Grund sei, dass sich das Unternehmen bei Gehältern eher an klassischen Halbleiterfirmen orientiere – und nicht an KI-Spezialisten wie Nvidia oder führenden AI-Labs, die deutlich höhere Vergütungen bieten.
SemiAnalysis rät AMD dringend, die Bezahlung für Fachkräfte deutlich zu verbessern – vor allem durch mehr Aktienoptionen (RSUs). Das Unternehmen verfüge dafür über ausreichende Rücklagen von mehr als fünf Milliarden US-Dollar.
Auch bei den internen Entwicklungsressourcen hinkt AMD hinterher. Statt eigener großer GPU-Cluster setzt das Unternehmen meist auf kurzfristig angemietete Kapazitäten – und besitzt laut Bericht weniger als ein Zwanzigstel der GPU-Anzahl von Nvidia. Im Gegensatz dazu betreibt Nvidia große, dauerhaft verfügbare Cluster über mehrere Jahre, die mehr Spielraum für Tests und langfristige Entwicklungen bieten.