Inhalt
summary Zusammenfassung

Google erweitert seine KI-Modellfamilie um drei neue Gemini 2.0-Varianten. Die Modelle zielen auf unterschiedliche Anwendungsfälle ab und versprechen mehr Leistung bei geringeren Kosten.

Anzeige

Wie das Unternehmen mitteilt, ist das bereits im Dezember vorgestellte Basismodell Gemini 2.0 Flash ab sofort allgemein verfügbar und bietet höhere Rate-Limits sowie eine verbesserte Performance.

Überdies führt Google mit Gemini 2.0 Flash-Lite eine kostengünstige Variante für Entwickler ein, die sich derzeit in der öffentlichen Preview in der API befindet. Derzeit ist nur die Ausgabe von Text möglich, Bild- und Audioausgabe sowie Live-Video sollen in den nächsten Monaten für Flash und Pro folgen. Alle drei Modelle können Bild und Audio als Input verarbeiten.

Ergänzt wird das Angebot durch Gemini 2.0 Pro, eine laut Google noch experimentelle Version für komplexe Prompts und Coding-Aufgaben. Sie bietet ein erweitertes Kontextfenster von 2 Millionen Token - doppelt so viel wie die Flash-Varianten.

Anzeige
Anzeige
Vergleichstabelle: Funktionsübersicht der Gemini 2.0 Varianten (Flash, Flash-Lite, Pro) mit 11 Merkmalen und deren Verfügbarkeit.
Während Flash-Lite auf Basisfunktionen beschränkt ist, bieten Flash und Pro Experimental erweiterte Werkzeuge wie Code-Ausführung und Suchfunktionen. Pro Experimental hebt sich durch ein verdoppeltes Kontextfenster von 2 Millionen Tokens ab. | Bild: Google

Darüber hinaus testet Google mit Gemini 2.0 Flash Thinking Modelle, die ähnlich wie OpenAI o3 und Deepseek-R1 als Reasoning-Modelle einen zusätzlichen Denkprozess vor der Antwortgenerierung durchlaufen. Flash Thinking kann zusätzlich YouTube, Maps und Google Search nutzen. Was noch fehlt und bisher nicht angekündigt wurde, ist das Flaggschiff-Modell "Gemini 2.0 Ultra".

Gemini Pro führt Benchmarks an

Wie die von Google veröffentlichten Benchmark-Daten zeigen, erzielt Gemini 2.0 Pro im internen Vergleich in fast allen Bereichen die besten Ergebnisse. Bei mathematischen Aufgaben erreicht es beispielsweise 91,8 Prozent im MATH-Benchmark und 65,2 Prozent bei HiddenMath, deutlich mehr als die Flash-Varianten. Das allgemein verfügbare Flash-Modell liegt leistungsmäßig zwischen Flash-Lite und Pro.

Vergleichstabelle: Leistungswerte Gemini 2.0 Flash (GA) und Pro Experimental in 12 Kategorien, mit Mathematik und Multilingual als Stärken.
Ergebnisse der neuen Modelle Gemini 2.0 Flash und Pro Experimental in gängigen Benchmarks. Insbesondere in den Bereichen Mathematik, Multilingual und Factuality wurden Fortschritte erzielt. | Bild: Google

In OpenAIs SimpleQA-Test erreicht das Pro-Modell 44,3 Prozent, während Gemini 2.0 Flash nur auf 29,9 Prozent kommt. Deepseek-R1 (30,1 Prozent) und o3-mini-high (13,8 Prozent) liegen hier deutlich zurück, vermutlich, weil sie mit weniger Daten trainiert wurden. Der Test stellt besonders schwierige Sachfragen, die das Modell ohne Internetverbindung beantworten muss - in der Realität dürfte dies ein immer seltenerer Anwendungsfall sein.

Außerdem hebt Google beim API-Pricing die bisherige Unterscheidung zwischen kurzen und langen Kontextanfragen auf. Dadurch können die Kosten für gemischte Workloads (Text und Bild) trotz der Leistungsverbesserungen unter denen von Gemini 1.5 Flash liegen.

Allerdings ist das neue Flash 2.0-Modell über die API deutlich teurer als das alte Flash-Modell. Hier bietet Google mit Flash-Lite eine Alternative, die laut Benchmarks in vielen Aufgaben besser ist. Letztlich müssen Praxistests zeigen, ob die beiden Modelle tatäschlich qualitativ gleichwertig sind.

Empfehlung
Preistabelle: Detaillierte Kostenaufstellung für Gemini 2.0 Flash, mit Preisen pro Million Tokens für verschiedene Ein- und Ausgabeformate.
Gemini 2.0 Flash ist teurer als 1.5 - Flash-Lite soll die Preis-Leistungslücke füllen. | Bild: Google

Alle Modelle sind über Google AI Studio und Vertex AI sowie über Googles Premium-Chatbot Gemini Advanvced auf Desktop- und Mobilgeräten verfügbar.

Anzeige
Anzeige
Community beitreten
Kommt in die DECODER-Community bei Discord,Reddit, Twitter und Co. - wir freuen uns auf euch!
Unterstütze unsere unabhängige, frei zugängliche Berichterstattung. Jeder Betrag hilft und sichert unsere Zukunft. Jetzt unterstützen:
Banküberweisung
Zusammenfassung
  • Google erweitert seine Gemini 2.0-Modellfamilie um drei neue Varianten: das allgemein verfügbare Basismodell Flash, die kostengünstige Preview-Version Flash-Lite für Entwickler und das experimentelle Pro-Modell für komplexe Aufgaben mit doppelt so großem Kontextfenster.
  • In internen Benchmarks erzielt Gemini 2.0 Pro in fast allen Bereichen die besten Ergebnisse, insbesondere bei mathematischen Aufgaben. Flash-Lite 2.0 schneidet in vielen Tests besser ab als das teurere Flash-Modell 1.5.
  • Beim API-Pricing wird nicht mehr zwischen kurzen und langen Kontext-Requests unterschieden, was bei gemischten Workloads trotz Leistungsverbesserungen zu geringeren Kosten führen kann.
Online-Journalist Matthias ist Gründer und Herausgeber von THE DECODER. Er ist davon überzeugt, dass Künstliche Intelligenz die Beziehung zwischen Mensch und Computer grundlegend verändern wird.
Community beitreten
Kommt in die DECODER-Community bei Discord,Reddit, Twitter und Co. - wir freuen uns auf euch!