Meta kündigt vier neue Generationen seiner eigenen KI-Chips an
Meta hat vier neue Generationen seiner selbst entwickelten KI-Chips angekündigt: MTIA 300, 400, 450 und 500.
Die Chips werden zusammen mit Broadcom entwickelt und sollen KI-Anwendungen für die Milliarden von Nutzern auf Metas Plattformen kostengünstiger betreiben. Meta verfolgt laut eigenen Angaben einen Entwicklungszyklus von etwa sechs Monaten pro Chipgeneration. Von MTIA 300 bis 500 steigt die Speicherbandbreite (HBM) um das 4,5-Fache, die Rechenleistung um das 25-Fache.
MTIA 300 wurde für Ranking- und Empfehlungsmodelle (R&R) optimiert und ist bereits im Einsatz. MTIA 400 ist die erste Generation, die laut Meta in der Rohleistung mit führenden kommerziellen Produkten konkurrieren kann. Ein Rack mit 72 Chips bildet eine einzige Scale-up-Domäne. MTIA 400 hat die Labortests abgeschlossen und wird derzeit in Rechenzentren ausgerollt.
MTIA 450 und 500 sind speziell für generative KI-Inferenz optimiert, also das Ausführen von KI-Modellen. MTIA 450 verdoppelt die HBM-Bandbreite gegenüber MTIA 400 und übertrifft damit laut Meta bestehende kommerzielle Produkte. Die Chips unterstützen niedrigpräzise Datenformate wie MX4 und MX8, die bei Inferenz weniger Rechenleistung benötigen, ohne die Modellqualität stark zu beeinträchtigen. MTIA 500 legt nochmals 50 Prozent HBM-Bandbreite und bis zu 80 Prozent mehr HBM-Kapazität drauf. Beide Chips sollen 2027 in Massenproduktion gehen.
| Metric | MTIA 300 | MTIA 400 | MTIA 450 | MTIA 500 |
|---|---|---|---|---|
| Workload Focus | R&R Training | General | GenAI Inference | GenAI Inference |
| Module TDP | 800 W | 1200 W | 1400 W | 1700 W |
| HBM Bandwidth | 6.1 TB/s | 9.2 TB/s | 18.4 TB/s | 27.6 TB/s |
| HBM Capacity | 216 GB | 288 GB | 288 GB | 384-512 GB |
| MX4 Performance | — | 12 PFLOPs | 21 PFLOPs | 30 PFLOPs |
| FP8/MX8 Performance | 1.2 PFLOPs | 6 PFLOPs | 7 PFLOPs | 10 PFLOPs |
| BF16 Performance | 0.6 PFLOPs | 3 PFLOPs | 3.5 PFLOPs | 5 PFLOPs |
| Scale-up Domain Size | 16 | 72 | 72 | 72 |
| Scale-up Network (unidirectional bandwidth*) |
1 TB/s | 1.2 TB/s | 1.2 TB/s | 1.2 TB/s |
| Scale-out Network (unidirectional bandwidth*) |
200 GB/s** | 100 GB/s | 100 GB/s | 100 GB/s |
Die Software basiert auf Industriestandards wie PyTorch, vLLM und Triton. Entwickler können bestehende Modelle ohne spezielle Anpassungen auf MTIA portieren und gleichzeitig auf GPUs und MTIA betreiben. Mehr technische Details gibt es in Metas Blog.
Bei GPUs kooperiert Meta mit AMD und Nvidia. Anfang Februar 2026 kündigte Meta einen Milliarden-Deal mit AMD an, um bis zu sechs Gigawatt an AMD-Instinct-GPU-Rechenleistung für Metas KI-Prozesse zur Verfügung zu stellen.
KI-News ohne Hype – von Menschen kuratiert
Mit dem THE‑DECODER‑Abo liest du werbefrei und wirst Teil unserer Community: Diskutiere im Kommentarsystem, erhalte unseren wöchentlichen KI‑Newsletter, 6× im Jahr den „KI Radar"‑Frontier‑Newsletter mit den neuesten Entwicklungen aus der Spitze der KI‑Forschung, bis zu 25 % Rabatt auf KI Pro‑Events und Zugriff auf das komplette Archiv der letzten zehn Jahre.
Jetzt abonnieren