Inhalt
summary Zusammenfassung
DEEP MINDS Podcast
Podcast über Künstliche Intelligenz und Wissenschaft
KI bei der Bundeswehr und der BWI | DEEP MINDS #16

Meta plant, noch in diesem Jahr einen maßgeschneiderten KI-Chip der zweiten Generation in seinen Rechenzentren einzusetzen.

Der neue Chip mit dem Codenamen "Artemis" soll noch in diesem Jahr in Produktion gehen und in den Rechenzentren von Meta für die "Inferenz", also den Betrieb von KI-Modellen, eingesetzt werden.

Ziel sei es, die Abhängigkeit von Nvidia-Chips zu verringern und die Kosten für KI-Workloads zu kontrollieren, berichtet Reuters.

Der neue Chip wird mit den GPUs zusammenarbeiten, die Meta von Nvidia und anderen Anbietern bezieht. Er könnte beispielsweise bei der Ausführung von Metas Empfehlungsmodellen für soziale Netzwerke effizienter sein. Meta bietet zudem generative KI-Anwendungen in seinen eigenen Diensten an, und trainiert Llama 3, ein Open-Source-Modell, das GPT-4-Niveau erreichen soll.

Anzeige
Anzeige

Ein Meta-Sprecher bestätigte den Plan, den Chip 2024 in Produktion zu bringen: "Wir sind überzeugt, dass unsere selbst entwickelten Beschleuniger die handelsüblichen GPUs sehr gut ergänzen, indem sie die optimale Mischung aus Leistung und Effizienz für Meta-spezifische Arbeitslasten bieten."

Meta kauft gerne und viel bei Nvidia ein

Mark Zuckerberg gab kürzlich bekannt, dass er bis Ende des Jahres 340.000 Nvidia H100-GPUs und insgesamt rund 600.000 Grafikkarten im Einsatz haben will. Damit ist Meta neben Microsoft der größte bekannte Kunde von Nvidia.

Bild: Omdia Research

Immer leistungsfähigere und größere Modelle führen zu immer höheren KI-Workloads und damit zu einer Kostenspirale. Auch andere Big-Tech-Unternehmen wie OpenAI und Microsoft wollen diese Kostenspirale mit eigenen Chips und effizienteren Modellen durchbrechen.

Im Mai 2023 stellte Meta erstmals seine neue Chipfamilie namens "Meta Training and Inference Accelerator" (MTIA) vor, die die Ausführung neuronaler Netze beschleunigen und verbilligen soll.

Der erste Chip (siehe Titelbild) sollte laut damaliger Ankündigung ab 2025 zum Einsatz kommen und wurde damals in den Meta-Rechenzentren getestet. Artemis ist laut Reuters bereits eine weiterentwickelte Variante des MTIA.

Anzeige
Community beitreten
Kommt in die DECODER-Community bei Discord,Reddit, Twitter und Co. - wir freuen uns auf euch!
Anzeige
Community beitreten
Kommt in die DECODER-Community bei Discord,Reddit, Twitter und Co. - wir freuen uns auf euch!
Empfehlung
Unterstütze unsere unabhängige, frei zugängliche Berichterstattung. Jeder Betrag hilft und sichert unsere Zukunft. Jetzt unterstützen:
Banküberweisung
Zusammenfassung
  • Meta plant den Einsatz eines maßgeschneiderten KI-Chips namens "Artemis" in seinen Rechenzentren, um die Abhängigkeit von Nvidia-Chips zu verringern und die Kosten für KI-Workloads unter Kontrolle zu halten.
  • Der neue Chip soll noch in diesem Jahr in Produktion gehen und zusammen mit Grafikprozessoren von Nvidia und anderen Anbietern in den Rechenzentren von Meta für den Betrieb (Inferenz) von KI-Modellen eingesetzt werden.
  • Meta hatte erstmals im Mai 2023 eine neue Chipfamilie namens "Meta Training and Inference Accelerator" (MTIA) vorgestellt, die die Ausführung neuronaler Netze beschleunigen und verbilligen soll.
Quellen
Online-Journalist Matthias ist Gründer und Herausgeber von THE DECODER. Er ist davon überzeugt, dass Künstliche Intelligenz die Beziehung zwischen Mensch und Computer grundlegend verändern wird.
Community beitreten
Kommt in die DECODER-Community bei Discord,Reddit, Twitter und Co. - wir freuen uns auf euch!