Anzeige
Skip to content

BTLM-3B-8k-base bringt LLM-Funktionen auf Geräte mit nur 3 GB Speicher

Cerebras und Opentensor haben auf dem Supercomputer Condor Galaxy 1 (CG-1) ein leistungsfähiges Sprachmodell mit 3 Milliarden Parametern und einem Kontextfenster von 8k trainiert. Das neue Modell namens BTLM-3B-8k-base übertrifft ähnliche Modelle, erreicht eine Leistung, die mit offenen 7B-Parametermodellen vergleichbar ist, läuft auf Geräten mit nur 3 GB Speicher und ist für die kommerzielle Nutzung lizenziert. Es benötigt 71 % weniger Trainings-FLOPs und 58 % weniger Speicher für die Inferenz als vergleichbare 7B-Modelle.

KI-News ohne Hype – von Menschen kuratiert

Mit dem THE‑DECODER‑Abo liest du werbefrei und wirst Teil unserer Community: Diskutiere im Kommentarsystem, erhalte unseren wöchentlichen KI‑Newsletter, 6× im Jahr den „KI Radar“‑Frontier‑Newsletter mit den neuesten Entwicklungen aus der Spitze der KI‑Forschung, bis zu 25 % Rabatt auf KI Pro‑Events und Zugriff auf das komplette Archiv der letzten zehn Jahre.

Quelle: Hugging Face

KI-News ohne Hype
Von Menschen kuratiert.

  • Mehr als 20 Prozent Launch-Rabatt.
  • Lesen ohne Ablenkung – keine Google-Werbebanner.
  • Zugang zum Kommentarsystem und Austausch mit der Community.
  • Wöchentlicher KI-Newsletter.
  • 6× jährlich: „KI Radar“ – Deep-Dives zu den wichtigsten KI-Themen.
  • Bis zu 25 % Rabatt auf KI Pro Online-Events.
  • Zugang zum kompletten Archiv der letzten zehn Jahre.
  • Die neuesten KI‑Infos von The Decoder – klar und auf den Punkt.
The Decoder abonnieren