Skip to content

Google stellt kompaktes japanisches Gemma-Modell und globale KI-Sprachinitiative vor

Image description
Google

Kurz & Knapp

  • Google hat auf dem Gemma Developer Day in Tokio eine japanische Version seines kompakten KI-Sprachmodells Gemma 2 vorgestellt, das trotz nur zwei Milliarden Parametern eine Leistung auf dem Niveau von GPT-3.5 für japanischsprachige Aufgaben erreichen soll.
  • Das 2B-Gemma-Modell ist so effizient, dass es auch auf mobilen Geräten laufen kann. Die Modellgewichte sowie Trainingsmaterialien für Entwickler sind ab sofort über Kaggle und Hugging Face verfügbar.
  • Um die Entwicklung weiterer Sprachvarianten zu fördern, startet Google den Wettbewerb "Unlocking Global Communication with Gemma" mit Preisgeldern von 150.000 Dollar.

Google erweitert seine Open-Source-KI-Familie Gemma um eine japanische Version und schreibt einen Wettbewerb für die Entwicklung weiterer Sprachversionen aus.

Google hat auf dem Gemma Developer Day in Tokio eine neue japanische Version seines KI-Sprachmodells Gemma 2 vorgestellt. Laut Google erreicht das Modell mit nur zwei Milliarden Parametern eine Leistung auf dem Niveau von GPT-3.5 für japanischsprachige Aufgaben.

Das neue Modell ist so kompakt, dass es auch auf mobilen Geräten effizient lokal laufen kann. Die japanische Sprachfähigkeit wurde laut Google ohne Einbußen bei der englischen Sprachverarbeitung erreicht.

Die Modellgewichte sind ab sofort über die Plattformen Kaggle und Hugging Face verfügbar. Google stellt außerdem Schulungsmaterialien zur Verfügung, die als praktische Beispiele und Lernressourcen für Entwickler weltweit dienen sollen.

Um die Entwicklung weiterer Sprachversionen zu fördern, startet Google den Wettbewerb "Unlocking Global Communication with Gemma" mit einem Preisgeld von 150.000 US-Dollar. Entwickler weltweit sollen Gemma 2 an ihre jeweilige Sprache anpassen und ihre Erfahrungen mit anderen teilen.

Entsprechende Projekte soll es bereits für Arabisch, Vietnamesisch und Zulu geben. Im Projekt "Navarasa" haben indische Entwickler das Modell für zwölf indische Sprachen optimiert. In einem weiteren Projekt versucht ein Entwickler, einen speziellen koreanischen Dialekt via LLM-Fine-Tuning zu erhalten.

Google Gemma: Effizientes Modell mit weniger Parametern

Google stellte die Gemma-2-Modelle Ende Juli als Open Source zur Verfügung. Die 2-Milliarden-Parameter-Version von Gemma 2 soll einige deutlich größere Modelle wie LLaMA-2 mit 70 Milliarden Parametern übertreffen.

Interessierte können Gemma-2-2B und weitere Gemma-Modelle bei Hugging Face herunterladen, im Google AI Studio nutzen oder dem kostenlosen Tarif von Google Colab ausprobieren. Eine weitere Zugangsmöglichkeit ist der Vertex AI Model Garden.

Quelle: Google

KI-News ohne Hype
Von Menschen kuratiert.

  • Mehr als 20 Prozent Launch-Rabatt.
  • Lesen ohne Ablenkung – keine Google-Werbebanner.
  • Zugang zum Kommentarsystem und Austausch mit der Community.
  • Wöchentlicher KI-Newsletter.
  • 6× jährlich: „KI Radar“ – Deep-Dives zu den wichtigsten KI-Themen.
  • Bis zu 25 % Rabatt auf KI Pro Online-Events.
  • Zugang zum kompletten Archiv der letzten zehn Jahre.
  • Die neuesten KI‑Infos von The Decoder – klar und auf den Punkt.
The Decoder abonnieren