Google erweitert seine Open-Source-KI-Familie Gemma um eine japanische Version und schreibt einen Wettbewerb für die Entwicklung weiterer Sprachversionen aus.
Google hat auf dem Gemma Developer Day in Tokio eine neue japanische Version seines KI-Sprachmodells Gemma 2 vorgestellt. Laut Google erreicht das Modell mit nur zwei Milliarden Parametern eine Leistung auf dem Niveau von GPT-3.5 für japanischsprachige Aufgaben.
Das neue Modell ist so kompakt, dass es auch auf mobilen Geräten effizient lokal laufen kann. Die japanische Sprachfähigkeit wurde laut Google ohne Einbußen bei der englischen Sprachverarbeitung erreicht.
Die Modellgewichte sind ab sofort über die Plattformen Kaggle und Hugging Face verfügbar. Google stellt außerdem Schulungsmaterialien zur Verfügung, die als praktische Beispiele und Lernressourcen für Entwickler weltweit dienen sollen.
Um die Entwicklung weiterer Sprachversionen zu fördern, startet Google den Wettbewerb "Unlocking Global Communication with Gemma" mit einem Preisgeld von 150.000 US-Dollar. Entwickler weltweit sollen Gemma 2 an ihre jeweilige Sprache anpassen und ihre Erfahrungen mit anderen teilen.
Entsprechende Projekte soll es bereits für Arabisch, Vietnamesisch und Zulu geben. Im Projekt "Navarasa" haben indische Entwickler das Modell für zwölf indische Sprachen optimiert. In einem weiteren Projekt versucht ein Entwickler, einen speziellen koreanischen Dialekt via LLM-Fine-Tuning zu erhalten.
Google Gemma: Effizientes Modell mit weniger Parametern
Google stellte die Gemma-2-Modelle Ende Juli als Open Source zur Verfügung. Die 2-Milliarden-Parameter-Version von Gemma 2 soll einige deutlich größere Modelle wie LLaMA-2 mit 70 Milliarden Parametern übertreffen.
Interessierte können Gemma-2-2B und weitere Gemma-Modelle bei Hugging Face herunterladen, im Google AI Studio nutzen oder dem kostenlosen Tarif von Google Colab ausprobieren. Eine weitere Zugangsmöglichkeit ist der Vertex AI Model Garden.