Inhalt
summary Zusammenfassung

Google hat seine Gemma-Familie um neue Modelle für Code-Vervollständigung und effizientere Inferenz erweitert. Außerdem wurden die Nutzungsbedingungen flexibler gestaltet.

Google hat heute die ersten Erweiterungen seiner im Februar vorgestellten Gemma-Familie angekündigt. Gemma umfasst leichtgewichtige State-of-the-Art Open-Source-Modelle, die auf derselben Technologie wie die Gemini-Modelle basieren.

Gemma für Code

CodeGemma für die Codegenerierung ist in drei Varianten verfügbar:

  • Ein vortrainiertes 7B-Modell für Code-Vervollständigung und Code-Generierung
  • Ein 7B-Modell mit Befehlsoptimierung für Code-Chat und Befehlsverfolgung
  • Ein vortrainiertes 2B-Modell für schnelle lokale Code-Vervollständigung.
Code Gemma erzielt keine Bestwerte in Benchmarks, ist dafür aber sehr performant, ohne abgehängt zu werden. | Bild: Google Deepmind

CodeGemma wurde mit 500 Milliarden Token aus Webdokumenten, Mathematik und Code trainiert. Es erzeugt syntaktisch korrekten und semantisch sinnvollen Code in Python, JavaScript, Java und anderen gängigen Sprachen. Ziel sei es, dass Entwickler weniger Standardcode schreiben und sich auf komplexere Aufgaben konzentrieren können, so Google.

Anzeige
Anzeige

Gemma für effizientere Inferenz

RecurrentGemma ist ein technisch eigenständiges Modell, das rekurrente neuronale Netze und lokale Aufmerksamkeit zur Verbesserung der Speichereffizienz nutzt. Bei ähnlicher Benchmark-Leistung wie Gemma 2B bietet RecurrentGemma laut Google mehrere Vorteile:

  • Geringerer Speicherverbrauch für längere Samples auf Geräten mit begrenztem Speicher wie einzelnen GPUs oder CPUs
  • Höherer Durchsatz durch Inferenz mit deutlich größeren Batch-Größen und mehr generierten Token pro Sekunde
  • Fortschritte in der Deep-Learning-Forschung durch Nicht-Transformer-Modell mit hoher Leistung
RecurrentGemma verwendet eine Netzwerkarchitektur mit Rückkopplungen, die es erlaubt, Informationen aus früheren Zeitschritten effizient zu speichern und zu verarbeiten, ohne dass die Geschwindigkeit bei längeren Sequenzen abnimmt. Transformatormodelle wie Gemma berechnen hingegen Wechselwirkungen zwischen allen Elementen einer Sequenz, was bei zunehmender Länge rechenintensiver wird und die Verarbeitungsgeschwindigkeit verlangsamt. | Bild: Google Deepmind

Zusätzlich zu den beiden neuen Modellen aktualisiert Google die Standard-Gemma-Modelle auf Version 1.1 und verspricht Leistungsverbesserungen, Bugfixes und flexiblere Nutzungsbedingungen.

Die neuen Modelle sind ab sofort auf Kaggle, Nvidia NIM APIs, Hugging Face und im Vertex AI Model Garden verfügbar. Sie können in verschiedene Werkzeuge und Plattformen integriert werden, darunter JAX, PyTorch, Hugging Face Transformers, Gemma.cpp, Keras, NVIDIA NeMo, TensorRT-LLM, Optimum-NVIDIA und MediaPipe.

Anzeige
Community beitreten
Kommt in die DECODER-Community bei Discord,Reddit, Twitter und Co. - wir freuen uns auf euch!
Anzeige
Community beitreten
Kommt in die DECODER-Community bei Discord,Reddit, Twitter und Co. - wir freuen uns auf euch!
Unterstütze unsere unabhängige, frei zugängliche Berichterstattung. Jeder Betrag hilft und sichert unsere Zukunft. Jetzt unterstützen:
Banküberweisung
Zusammenfassung
  • Google hat seine Gemma-Modellfamilie um neue Varianten zur Code-Vervollständigung und für eine effizientere Inferenz erweitert. Außerdem wurden die Standard-Gemma-Modelle auf Version 1.1 aktualisiert.
  • CodeGemma erzeugt laut Google in verschiedenen Varianten syntaktisch korrekten und semantisch sinnvollen Code, um Entwickler von Standardaufgaben zu entlasten.
  • RecurrentGemma nutzt rekurrente neuronale Netze für geringeren Speicherverbrauch und höheren Durchsatz bei ähnlicher Performance wie das Basismodell Gemma 2B.
Online-Journalist Matthias ist Gründer und Herausgeber von THE DECODER. Er ist davon überzeugt, dass Künstliche Intelligenz die Beziehung zwischen Mensch und Computer grundlegend verändern wird.
Community beitreten
Kommt in die DECODER-Community bei Discord,Reddit, Twitter und Co. - wir freuen uns auf euch!