Das 7-Milliarden-Parameter-Sprachmodell Teuken-7B des Forschungsprojekts OpenGPT-X steht auf Hugging Face zum Download bereit. Das Open-Source-Modell wurde von Grund auf mit den 24 EU-Amtssprachen trainiert und kann von Forschung und Unternehmen für eigene KI-Anwendungen genutzt werden. Teuken-7B enthält etwa 50 Prozent nicht-englische Pretrainingsdaten und erweist sich laut den Entwicklern über mehrere Sprachen hinweg als stabil und zuverlässig. Mit Hilfe des im Projekt entwickelten European LLM Leaderboard ist es möglich, die Leistung von LLMs über fast alle EU-Sprachen hinweg zu vergleichen, anstatt wie bisher nur englischsprachige Evaluierungsdatensätze zu verwenden.

Anzeige
Unterstütze unsere unabhängige, frei zugängliche Berichterstattung. Jeder Betrag hilft und sichert unsere Zukunft. Jetzt unterstützen:
Banküberweisung
Quellen
Online-Journalist Matthias ist Gründer und Herausgeber von THE DECODER. Er ist davon überzeugt, dass Künstliche Intelligenz die Beziehung zwischen Mensch und Computer grundlegend verändern wird.
Community beitreten
Kommt in die DECODER-Community bei Discord,Reddit, Twitter und Co. - wir freuen uns auf euch!