Anzeige
Skip to content

Meta stellt eigenen KI-Chip und Supercomputer Stufe 2 vor

Image description
Meta

Ein neuer KI-Chip von Meta soll die Ausführung neuronaler Netze beschleunigen, ein weiter ausgebauter Supercomputer die eigene KI-Forschung.

"Meta Training and Inference Accelerator" (MTIA) steht für eine neue Chipfamilie, die insbesondere die Rechenleistung neuronaler Netze, die sogenannte Inferenz, beschleunigen und verbilligen soll. Der Chip soll ab 2025 im Einsatz sein. Derzeit setzt Meta in den eigenen Rechenzentren noch auf Nvidia-Grafikkarten.

Wie Googles Tensor-Processing-Chips (TPUs) ist auch der MTIA ein ASIC-Chip (Application-Specific Integrated Circuit), der für Matrix-Multiplikationen und Aktivierungsfunktionen optimiert ist, wie sie in neuronalen Netzen vorkommen. Laut Meta kann der Chip KI-Modelle mit geringer und mittlerer Komplexität besser verarbeiten als eine GPU.

Video: Meta AI

Anzeige
DEC_D_Incontent-1

Auch Amazon bietet mit Trainium und Inferentia Zugang zu KI-Chips für Training und Ausführung in der Cloud. Microsoft soll mit AMD an KI-Chips arbeiten.

"Research SuperCluster": Metas KI-Supercomputer RSC erreicht nächste Ausbaustufe

Im Januar 2022 hat Meta den KI-Supercomputer RSC vorgestellt. Er soll im Vollausbau der schnellste Supercomputer sein, der auf KI-Berechnungen spezialisiert ist. Bereits seit 2020 baut der Konzern an dem Riesenrechner.

Laut Meta hat RSC nun die zweite Ausbaustufe erreicht und verfügt über 2.000 Nvidia DGX A100 und 16.000 Nvidia A100 GPUs. Die Spitzenleistung liegt laut Meta bei fünf Exaflops. Der RSC soll für die KI-Forschung in verschiedenen Bereichen, einschließlich der generativen KI, genutzt werden.

Eine Besonderheit des RSC-Supercomputers ist, dass er Daten aus den Produktionssystemen von Meta für das KI-Training nutzen kann. Bislang setzte Meta primär auf Open Source und öffentlich verfügbare Datensätze, obwohl der Konzern auf einem gigantischen Datenschatz sitzt.

Anzeige
DEC_D_Incontent-2

Video: Meta

Der RSC hat bereits Geschichte geschrieben: Meta trainierte auf ihm das Sprachmodell LLaMA, das - teils geleakt, teils veröffentlicht - zum Motor der Open-Source-Bewegung für Sprachmodelle wurde. Das Training des größten LLaMA-Modells dauerte laut Meta 21 Tage auf 2.048 Nvidia A100 GPUs.

KI-News ohne Hype – von Menschen kuratiert

Mit dem THE‑DECODER‑Abo liest du werbefrei und wirst Teil unserer Community: Diskutiere im Kommentarsystem, erhalte unseren wöchentlichen KI‑Newsletter, 6× im Jahr den „KI Radar“‑Frontier‑Newsletter mit den neuesten Entwicklungen aus der Spitze der KI‑Forschung, bis zu 25 % Rabatt auf KI Pro‑Events und Zugriff auf das komplette Archiv der letzten zehn Jahre.

Quelle: Meta MTIA | Meta RSC

KI-News ohne Hype
Von Menschen kuratiert.

  • Mehr als 20 Prozent Launch-Rabatt.
  • Lesen ohne Ablenkung – keine Google-Werbebanner.
  • Zugang zum Kommentarsystem und Austausch mit der Community.
  • Wöchentlicher KI-Newsletter.
  • 6× jährlich: „KI Radar“ – Deep-Dives zu den wichtigsten KI-Themen.
  • Bis zu 25 % Rabatt auf KI Pro Online-Events.
  • Zugang zum kompletten Archiv der letzten zehn Jahre.
  • Die neuesten KI‑Infos von The Decoder – klar und auf den Punkt.
The Decoder abonnieren