Inhalt
summary Zusammenfassung

Google erweitert seine Open-Source-KI-Familie Gemma um eine japanische Version und schreibt einen Wettbewerb für die Entwicklung weiterer Sprachversionen aus.

Anzeige

Google hat auf dem Gemma Developer Day in Tokio eine neue japanische Version seines KI-Sprachmodells Gemma 2 vorgestellt. Laut Google erreicht das Modell mit nur zwei Milliarden Parametern eine Leistung auf dem Niveau von GPT-3.5 für japanischsprachige Aufgaben.

Das neue Modell ist so kompakt, dass es auch auf mobilen Geräten effizient lokal laufen kann. Die japanische Sprachfähigkeit wurde laut Google ohne Einbußen bei der englischen Sprachverarbeitung erreicht.

Die Modellgewichte sind ab sofort über die Plattformen Kaggle und Hugging Face verfügbar. Google stellt außerdem Schulungsmaterialien zur Verfügung, die als praktische Beispiele und Lernressourcen für Entwickler weltweit dienen sollen.

Anzeige
Anzeige

Um die Entwicklung weiterer Sprachversionen zu fördern, startet Google den Wettbewerb "Unlocking Global Communication with Gemma" mit einem Preisgeld von 150.000 US-Dollar. Entwickler weltweit sollen Gemma 2 an ihre jeweilige Sprache anpassen und ihre Erfahrungen mit anderen teilen.

Entsprechende Projekte soll es bereits für Arabisch, Vietnamesisch und Zulu geben. Im Projekt "Navarasa" haben indische Entwickler das Modell für zwölf indische Sprachen optimiert. In einem weiteren Projekt versucht ein Entwickler, einen speziellen koreanischen Dialekt via LLM-Fine-Tuning zu erhalten.

Google Gemma: Effizientes Modell mit weniger Parametern

Google stellte die Gemma-2-Modelle Ende Juli als Open Source zur Verfügung. Die 2-Milliarden-Parameter-Version von Gemma 2 soll einige deutlich größere Modelle wie LLaMA-2 mit 70 Milliarden Parametern übertreffen.

Interessierte können Gemma-2-2B und weitere Gemma-Modelle bei Hugging Face herunterladen, im Google AI Studio nutzen oder dem kostenlosen Tarif von Google Colab ausprobieren. Eine weitere Zugangsmöglichkeit ist der Vertex AI Model Garden.

Anzeige
Anzeige
Community beitreten
Kommt in die DECODER-Community bei Discord,Reddit, Twitter und Co. - wir freuen uns auf euch!
Unterstütze unsere unabhängige, frei zugängliche Berichterstattung. Jeder Betrag hilft und sichert unsere Zukunft. Jetzt unterstützen:
Banküberweisung
Zusammenfassung
  • Google hat auf dem Gemma Developer Day in Tokio eine japanische Version seines kompakten KI-Sprachmodells Gemma 2 vorgestellt, das trotz nur zwei Milliarden Parametern eine Leistung auf dem Niveau von GPT-3.5 für japanischsprachige Aufgaben erreichen soll.
  • Das 2B-Gemma-Modell ist so effizient, dass es auch auf mobilen Geräten laufen kann. Die Modellgewichte sowie Trainingsmaterialien für Entwickler sind ab sofort über Kaggle und Hugging Face verfügbar.
  • Um die Entwicklung weiterer Sprachvarianten zu fördern, startet Google den Wettbewerb "Unlocking Global Communication with Gemma" mit Preisgeldern von 150.000 Dollar.
Quellen
Online-Journalist Matthias ist Gründer und Herausgeber von THE DECODER. Er ist davon überzeugt, dass Künstliche Intelligenz die Beziehung zwischen Mensch und Computer grundlegend verändern wird.
Community beitreten
Kommt in die DECODER-Community bei Discord,Reddit, Twitter und Co. - wir freuen uns auf euch!