Inhalt
summary Zusammenfassung

AMD will mit seinen neuen KI-Beschleunigern der Instinct MI350-Serie Nvidias Vormachtstellung im KI-Markt angreifen. Die Chips könnten bei bestimmten Aufgaben und den Gesamtkosten Vorteile bieten, doch die Software bleibt ein Knackpunkt. Die für 2026 erwartete MI400-Serie soll dann noch enger zusammenarbeiten können.

Anzeige

Advanced Micro Devices (AMD) hat neue Spezialchips für Künstliche Intelligenz (KI) vorgestellt, die Instinct MI350X und MI355X. Die neuen Chips nutzen AMDs CDNA 4-Architektur und werden im 3-Nanometer-Verfahren bei TSMC hergestellt.

Sie sollen bis zu 185 Milliarden Transistoren enthalten und neue Datenformate wie FP4 und FP6 unterstützen. Beide Chip-Varianten sind mit 288 Gigabyte HBM3E-Speicher ausgestattet, der für KI-Anwendungen entscheidend ist.

Die MI350X ist eine luftgekühlte Version, die 1000 Watt Strom verbraucht. Die MI355X benötigt mit 1400 Watt noch mehr Energie und kann sowohl mit Luft als auch mit Flüssigkeit gekühlt werden. Obwohl die MI355X auf dem Papier nur geringfügig mehr Rechenoperationen pro Sekunde (TFLOPs) verspricht als die MI350X, erwartet SemiAnalysis in der Praxis eine um über 10 % höhere Leistung.

Anzeige
Anzeige

Wie schlagen sich die neuen AMD-Chips im Vergleich zu Nvidia?

Laut SemiAnalysis könnte die MI355X bei bestimmten KI-Aufgaben, wie dem Betrieb kleinerer bis mittlerer Sprachmodelle, in Bezug auf die Leistung pro Gesamtbetriebskosten (TCO) mit Nvidias HGX B200 konkurrieren. TCO umfasst nicht nur den Kaufpreis, sondern auch Strom und Wartung, wo AMD einen Vorteil von 33 % für selbst betriebene Systeme sieht. Laut AMD hat der MI355X 1,6-mal mehr Speicher und eine 2,2-fach höhere Leistung im FP6-Format als Nvidias B200. Bei FP4-Berechnungen sei Nvidias B300 jedoch 1,3-mal schneller als die MI355X, so SemiAnalysis.

Dazu kommt: Gegenüber Nvidias aktuellem Top-Modell, dem GB200 NVL72 System, sei die MI355X jedoch nicht konkurrenzfähig, wenn es um sehr große KI-Modelle oder das Training neuer Modelle geht, urteilt SemiAnalysis. Ein Grund sei die kleinere "World Size": Bei AMDs MI355X können nur 8 Chips direkt extrem schnell miteinander kommunizieren, bei Nvidias GB200 NVL72 sind es 72. Das führt laut SemiAnalysis dazu, dass komplexe Aufgaben, bei denen viele Chips Daten austauschen müssen (Kollektivoperationen), auf dem AMD-System mindestens 18-mal langsamer ablaufen könnten.

AMDs Bezeichnung eines "128 GPU Racks" der MI355X als "Rack-Scale-Lösung" (also ein komplettes, optimiertes System in einem Serverschrank) sei irreführend, kritisiert SemiAnalysis. Es handle sich vielmehr um 16 einzelne Server mit jeweils 8 GPUs, die nicht so eng miteinander vernetzt seien wie bei einer echten Rack-Scale-Lösung.

Die Geschwindigkeit, mit der Daten innerhalb eines 8-GPU-Verbunds (Scale-Up) über AMDs XGMI-Verbindung ausgetauscht werden, wurde laut SemiAnalysis auf 76,8 Gigabyte pro Sekunde erhöht. Nvidias vergleichbare Systeme seien hier aber 1,6-mal schneller.

Software, Partnerschaften und ein Blick in die Zukunft

Ein entscheidender Faktor für AMDs Erfolg ist die Software. Laut SemiAnalysis hat AMD mit seiner Software-Plattform ROCm Version 7 Verbesserungen bei der Leistung für KI-Anwendungen erzielt und gibt eine durchschnittliche Steigerung von 3,5-mal gegenüber der Vorversion an. Die Unterstützung für Triton, eine Programmierhilfe für KI-Software, sei verbessert worden. Allerdings sei die wichtige ROCm Collective Communication Library (RCCL), die für die Zusammenarbeit mehrerer Chips zuständig ist, weiterhin ein Schwachpunkt und im Grunde eine Kopie von Nvidias bewährter NCCL-Software.

Empfehlung

SemiAnalysis berichtet, dass AMD sein Ökosystem von Cloud-Anbietern, die Rechenleistung auf AMD-Chips vermieten (sogenannte Neoclouds), aktiv fördert. Dazu mietet AMD selbst Kapazitäten bei Anbietern wie AWS und Oracle. Eine eigene "AMD Developer Cloud" soll mit günstigen Preisen von 1,99 US-Dollar pro Stunde für eine MI300X-GPU den Wettbewerb ankurbeln. Zudem gebe es Bestrebungen, die Gehälter von AMDs KI-Ingenieuren an das Marktniveau anzupassen.

Bei den großen Cloud-Anbietern und KI-Forschungslaboren gebe es laut SemiAnalysis starkes Interesse an den neuen Chips. AWS plane erstmals den größeren Einkauf und Einsatz von AMD-GPUs. Meta, der Facebook-Konzern, beginne ebenfalls, Modelle auf AMD-Systemen zu trainieren, und Oracle plane den Einsatz von 30.000 MI355X-Beschleunigern. Microsoft bestelle zwar nur geringe Mengen der MI355, zeige aber Interesse an der kommenden MI400.

Für das zweite Halbjahr 2026 wird die MI400-Serie erwartet, die dann eine echte Rack-Scale-Lösung darstellen und potenziell mit Nvidias VR200 NVL144 System konkurrieren könne. Diese soll "UALink over Ethernet" verwenden, eine von AMD entwickelte Methode, um eine schnelle Verbindung ähnlich Nvidias NVLink über Standard-Ethernet-Technologie zu realisieren. SemiAnalysis ist skeptisch, ob dies so gut sein wird wie eine dedizierte Lösung. Für Ende 2027 sei dann die MI500 UAL256 mit 256 Chips geplant. Die jetzt vorgestellte MI350-Serie ist ab sofort bestellbar und soll ab dem dritten Quartal 2025 breiter verfügbar sein.

Anzeige
Anzeige
Community beitreten
Kommt in die DECODER-Community bei Discord,Reddit, Twitter und Co. - wir freuen uns auf euch!
Unterstütze unsere unabhängige, frei zugängliche Berichterstattung. Jeder Betrag hilft und sichert unsere Zukunft. Jetzt unterstützen:
Banküberweisung
Zusammenfassung
  • AMD hat mit der Instinct MI350-Serie neue KI-Beschleuniger vorgestellt, die auf der CDNA 4-Architektur basieren und bis zu 185 Milliarden Transistoren sowie 288 GB HBM3E-Speicher bieten. Die Modelle MI350X und MI355X unterscheiden sich in Kühlung und Leistungsaufnahme.
  • Im Vergleich zu Nvidias HGX B200 bietet die MI355X bei bestimmten KI-Anwendungen Vorteile bei den Gesamtbetriebskosten, ist aber laut SemiAnalysis bei sehr großen Modellen deutlich im Nachteil – insbesondere wegen der begrenzten direkten Chip-Vernetzung von nur 8 statt 72 Chips wie bei Nvidia.
  • Entscheidend bleibt die Software: AMDs Plattform ROCm 7 hat Fortschritte gemacht, doch die Kommunikation mehrerer Chips gilt weiterhin als Schwachpunkt. Große Cloud-Anbieter wie AWS, Meta und Oracle zeigen dennoch Interesse an den Chips.
Quellen
Max ist leitender Redakteur bei THE DECODER. Als studierter Philosoph beschäftigt er sich mit dem Bewusstsein, KI und der Frage, ob Maschinen wirklich denken können oder nur so tun als ob.
Community beitreten
Kommt in die DECODER-Community bei Discord,Reddit, Twitter und Co. - wir freuen uns auf euch!