Skip to content

Open-Source-LLM Poro34B von Silo AI soll alle offiziellen EU-Sprachen lernen

Image description
DALL-E 3 prompted by THE DECODER

Kurz & Knapp

  • Silo AI, ein Startup-Unternehmen mit Sitz in Helsinki, hat Poro auf den Markt gebracht, ein Open-Source-Modell für große Sprachen, das sich auf die Verbesserung mehrsprachiger KI-Fähigkeiten für europäische Sprachen konzentriert, beginnend mit Englisch und Finnisch.
  • Das Poro 34B-Modell mit 34,2 Milliarden Parametern verwendet eine BLOOM Transformer Architektur und wird auf einem mehrsprachigen Datensatz mit einer Billion Token trainiert, wobei der Trainingsfortschritt im Rahmen des Poro Research Checkpoints Programms transparent dokumentiert wird.
  • Poro ist Teil eines wachsenden Trends europäischer sprachspezifischer KI-Modelle wie Mistral 7B aus Frankreich und LeoLM aus Deutschland, die darauf abzielen, die Dominanz des Englischen in großen Sprachmodellen wie GPT-4 zu überwinden.

Das in Helsinki ansässige KI-Start-up Silo AI hat Poro vorgestellt, ein quelloffenes Large Language Model (LLM), das die mehrsprachigen KI-Fähigkeiten für europäische Sprachen und Codes verbessern soll.

Poro wurde von SiloGen, der Abteilung für generative KI von Silo AI, und der Forschungsgruppe TurkuNLP an der Universität Turku entwickelt und ist das erste einer geplanten Reihe von Modellen, die alle Amtssprachen der Europäischen Union abdecken sollen.

Das Ziel ist, "die digitale Souveränität Europas zu gewährleisten und den Zugang zu LLMs zu demokratisieren." Silo AI beschreibt sich selbst als "das größte private KI-Labor in den nordischen Ländern, das KI als Dienstleistung anbietet."

Das Modell Poro 34B mit 34,2 Milliarden Parametern verwendet eine BLOOM-Transformer-Architektur mit ALiBi-Einbettungen und wird auf einem mehrsprachigen Datensatz mit einer Billion Token trainiert, der sich auf Englisch, Finnisch und Programmiersprachen wie Python und Java konzentriert. Poro wurde bislang zu 30 Prozent trainiert. Das Training wurde auf LUMI, dem schnellsten Supercomputer Europas, in Finnland durchgeführt.

Das Modell verwendet einen sprachenübergreifenden Trainingsansatz, um der Herausforderung zu begegnen, leistungsfähige natürliche Sprachmodelle für europäische Sprachen mit begrenzten Ressourcen zu trainieren. Der Trainingsfortschritt von Poro wird durch das Poro Research Checkpoints Programm dokumentiert und bietet somit Transparenz über das Training des Modells.

In den Benchmarks erzielt Poro 34B die besten Ergebnisse in der ressourcenarmen Sprache Finnisch, ohne dass die Finnischkompetenz auf Kosten der Englischkompetenz geht. Nach dem deutschen Sprachmodell LeoLM, das kürzlich von LAION und Hessian.ai trainiert wurde, ist dies das zweite europäische sprachspezifische LLM, das sowohl im Englischen als auch in seiner Muttersprache gute Leistungen erbringt.

Poro ist unter der Apache 2.0 Lizenz frei verfügbar und eignet sich daher sowohl für die kommerzielle als auch für die wissenschaftliche Nutzung. Die Modellkarte kann hier eingesehen werden.

LLMs wie GPT-4 zeigen gute Leistungen in vielen Sprachen, sind aber in der Regel am stärksten im Englischen, das den Datensatz dominiert.

Mit dem französischen Mistral 7B, das eine wettbewerbsfähige Gesamtleistung aufweist, und dem deutschen Aleph Alpha, das kürzlich eine Investition von 500 Millionen Euro erhalten hat, scheint Europa langsam Fahrt aufzunehmen. Wenn man von der EU-Gesetzgebung für KI selbst absieht, denn die wird wohl noch etwas dauern.

Quelle: Silo AI

KI-News ohne Hype
Von Menschen kuratiert.

  • Mehr als 20 Prozent Launch-Rabatt.
  • Lesen ohne Ablenkung – keine Google-Werbebanner.
  • Zugang zum Kommentarsystem und Austausch mit der Community.
  • Wöchentlicher KI-Newsletter.
  • 6× jährlich: „KI Radar“ – Deep-Dives zu den wichtigsten KI-Themen.
  • Bis zu 25 % Rabatt auf KI Pro Online-Events.
  • Zugang zum kompletten Archiv der letzten zehn Jahre.
  • Die neuesten KI‑Infos von The Decoder – klar und auf den Punkt.
The Decoder abonnieren