Skip to content

Cerebras WSE-3 ermöglicht KI-Modelle zehnmal größer als OpenAIs GPT-4 und Googles Gemini

Image description
Cerebras

Kurz & Knapp

  • Cerebras Systems präsentiert seinen neuen Waferscale-KI-Chip WSE-3, der doppelt so leistungsfähig sein soll wie sein Vorgänger und in einem 8-Exaflops-Supercomputer in Dallas eingesetzt wird.
  • Der WSE-3-Chip wird mit der 5-Nanometer-Technologie von TSMC hergestellt und kann neuronale Netzwerkmodelle mit bis zu 24 Billionen Parametern trainieren, ohne auf Softwaretricks angewiesen zu sein.
  • Cerebras hat zudem eine Partnerschaft mit Qualcomm angekündigt, um die Preise für KI-Inferenz um das Zehnfache zu reduzieren, indem KI-Modelle auf CS-3-Systemen trainiert und dann auf Qualcomms neuem Inferenzchip, dem AI 100 Ultra, ausgeführt werden.

Cerebras Systems hat seinen dritten Waferscale-KI-Chip WSE-3 vorgestellt, der die doppelte Leistung seines Vorgängers erreichen soll und einen 8-Exaflops-Supercomputer in Dallas antreiben wird.

Cerebras Systems hat mit dem WSE-3 die dritte Generation seines Wafer-Scale-KI-Megachips vorgestellt. Nach Angaben des Unternehmens soll der Chip bei gleichem Stromverbrauch doppelt so leistungsfähig sein wie sein Vorgänger.

Mit 4 Billionen Transistoren und einer um mehr als 50 Prozent erhöhten Transistordichte dank neuester Chipfertigungstechnologie setzt Cerebras seine Tradition fort, den größten Einzelchip der Welt herzustellen. Der quadratische Chip mit einer Kantenlänge von 21,5 Zentimetern nutzt fast eine ganze 300-Millimeter-Siliziumscheibe.

Seit dem ersten Megachip WSE-1 im Jahr 2019 hat sich die Anzahl der Transistoren damit mehr als verdreifacht. Der neueste Chip, WSE-3, wird mit der 5-Nanometer-Technologie von TSMC gebaut, nachdem der WSE-2 2021 mit der 7-Nanometer-Technologie des Unternehmens debütieren wird.

WSE-3 basierte Supercomputer sollen KI-Training auf einer neuen Skala ermöglichen

Der um den neuen KI-Chip herumgebaute Computer, der CS-3, soll in der Lage sein, neue Generationen riesiger Sprachmodelle zu trainieren, die zehnmal größer sind als OpenAIs GPT-4 und Googles Gemini. Cerebras gibt an, dass der CS-3 neuronale Netzwerkmodelle mit bis zu 24 Billionen Parametern trainieren kann, ohne auf Softwaretricks zurückgreifen zu müssen, die andere Computer benötigen.

Bis zu 2.048 Systeme können kombiniert werden, eine Konfiguration, die ein Training eines Sprachmodells wie Llama 70B in nur einem Tag durchführen könnte. Der erste auf CS-3 basierende Supercomputer, Condor Galaxy 3 in Dallas, wird aus 64 CS-3s bestehen und soll so auf 8 Exaflops Leistung kommen. Besitzer des Systems ist wie bei den CS-2-basierten Schwesteranlagen Abu Dhabis G42.

Cerebras hat außerdem eine Partnerschaft mit Qualcomm getroffen, die darauf abzielt, Preise für KI-Inferenz um das Zehnfache zu reduzieren. Dafür will das Team KI-Modelle CS-3-Systemen trainieren und anschließend mit Methoden wie Pruning effizienter machen. Die von Cerebras trainierten Netzwerke sollen dann auf Qualcomms neuem Inferenzchip, dem AI 100 Ultra, laufen.

Quelle: Cerebras

KI-News ohne Hype
Von Menschen kuratiert.

  • Mehr als 20 Prozent Launch-Rabatt.
  • Lesen ohne Ablenkung – keine Google-Werbebanner.
  • Zugang zum Kommentarsystem und Austausch mit der Community.
  • Wöchentlicher KI-Newsletter.
  • 6× jährlich: „KI Radar“ – Deep-Dives zu den wichtigsten KI-Themen.
  • Bis zu 25 % Rabatt auf KI Pro Online-Events.
  • Zugang zum kompletten Archiv der letzten zehn Jahre.
  • Die neuesten KI‑Infos von The Decoder – klar und auf den Punkt.
The Decoder abonnieren