Stability.AI hat ein experimentelles Modell, Stable LM 3B, veröffentlicht, das für mobile Geräte optimiert ist. Es ist die neueste Ergänzung ihrer Reihe von Open-Source-Sprachmodellen.
Stable LM 3B hat 3 Milliarden Parameter, eine kompakte Größe, die für tragbare Geräte wie Laptops und Handhelds ausgelegt ist. Trotz seiner geringen Größe bietet es eine konkurrenzfähige Leistung, die laut Stability AI frühere Sprachmodelle mit 3B-Parametern übertrifft und sogar mit einigen Open-Source-Modellen mit 7B-Parametern konkurrieren kann.
Stable LM 3B benötigt weniger Ressourcen und hat niedrigere Betriebskosten, was es für die meisten Benutzer erschwinglich macht. Insbesondere verbraucht es weniger Energie, was die Umweltverträglichkeit verbessert.
Das Modell wurde für eine Vielzahl von Anwendungen entwickelt, einschließlich Chat-Anwendungen. Stable LM 3B zeichnet sich durch eine verbesserte Textgenerierung bei hoher Ausführungsgeschwindigkeit aus und kann für verschiedene Anwendungen, wie Programmierunterstützung, fein abgestimmt werden.
Die Entwicklung von Stable LM 3B erweitert die Palette der Anwendungen, die auf Edge- oder Heim-PCs möglich sind. Einzelpersonen und Unternehmen können nun hochmoderne Technologien mit leistungsstarken Konversationsfunktionen, wie z. B. kreatives Schreiben, zu niedrigen Kosten und mit hoher Leistung entwickeln.
Stability AI
Stability AI weist jedoch darauf hin, dass es sich bei Stable LM 3B um ein Basismodell handelt, das für spezifische Anwendungen und sichere Leistungen angepasst werden muss. Stability AI weist auch darauf hin, dass es sich noch um eine "experimentelle Version" handelt.
Das Unternehmen ermutigt die Community, das Modell auszuprobieren, das auf der Hugging Face-Plattform zum Download zur Verfügung steht. Das Modell wird unter der Open-Source-Lizenz CC-By-SA 4.0 veröffentlicht.
Stability AI, bekannt für seine Bild-KI Stable Diffusion, veröffentlicht auch Open-Source-Sprachmodelle unter dem Namen "StableLM". Die erste Veröffentlichung, StableLM-Alpha im April, umfasste Modelle mit 3 und 7 Milliarden Parametern, eine Erweiterung auf 175 Milliarden Parameter ist geplant. Die Modelle sind für die kommerzielle Nutzung unter der Creative Commons CC BY-SA-4.0 Lizenz verfügbar. Sie wurden auf einer experimentellen Version des EleutherAI-Datensatzes "The Pile" trainiert.