BTLM-3B-8k-base bringt LLM-Funktionen auf Geräte mit nur 3 GB Speicher
Cerebras und Opentensor haben auf dem Supercomputer Condor Galaxy 1 (CG-1) ein leistungsfähiges Sprachmodell mit 3 Milliarden Parametern und einem Kontextfenster von 8k trainiert. Das neue Modell namens BTLM-3B-8k-base übertrifft ähnliche Modelle, erreicht eine Leistung, die mit offenen 7B-Parametermodellen vergleichbar ist, läuft auf Geräten mit nur 3 GB Speicher und ist für die kommerzielle Nutzung lizenziert. Es benötigt 71 % weniger Trainings-FLOPs und 58 % weniger Speicher für die Inferenz als vergleichbare 7B-Modelle.
KI-News ohne Hype – von Menschen kuratiert
Mit dem THE‑DECODER‑Abo liest du werbefrei und wirst Teil unserer Community: Diskutiere im Kommentarsystem, erhalte unseren wöchentlichen KI‑Newsletter, 6× im Jahr den „KI Radar“‑Frontier‑Newsletter mit den neuesten Entwicklungen aus der Spitze der KI‑Forschung, bis zu 25 % Rabatt auf KI Pro‑Events und Zugriff auf das komplette Archiv der letzten zehn Jahre.
Jetzt abonnierenKI-News ohne Hype
Von Menschen kuratiert.
- Mehr als 20 Prozent Launch-Rabatt.
- Lesen ohne Ablenkung – keine Google-Werbebanner.
- Zugang zum Kommentarsystem und Austausch mit der Community.
- Wöchentlicher KI-Newsletter.
- 6× jährlich: „KI Radar“ – Deep-Dives zu den wichtigsten KI-Themen.
- Bis zu 25 % Rabatt auf KI Pro Online-Events.
- Zugang zum kompletten Archiv der letzten zehn Jahre.
- Die neuesten KI‑Infos von The Decoder – klar und auf den Punkt.