Inhalt
summary Zusammenfassung

Google hat zwei aktualisierte Gemini-KI-Modelle veröffentlicht, die leistungsfähiger, schneller und günstiger als ihre Vorgänger sein sollen.

Anzeige

Google hat zwei aktualisierte Gemini-KI-Modelle veröffentlicht: Gemini-1.5-Pro-002 und Gemini-1.5-Flash-002. Laut Google sind die neuen Versionen leistungsfähiger, schneller und günstiger als ihre Vorgänger.

Bild: Google

Die Preise für Gemini 1.5 Pro wurden für Input- und Output-Token um mehr als 50 Prozent gesenkt, die Ratenlimits für beide Modelle erhöht und die Latenz verringert. Laut Google haben sich die Modelle in verschiedenen Benchmarks verbessert, insbesondere in den Bereichen Mathematik, langer Kontext und Vision.

Neue Gemini-Modelle schneiden in Mathe-Benchmarks besser ab

Bei MMLU-Pro, einer anspruchsvolleren Version des beliebten MMLU-Benchmarks, sei eine Steigerung von etwa 7 Prozent zu verzeichnen. Bei den Mathematik-Benchmarks MATH und HiddenMath hätten sich beide Modelle um beachtliche 20 Prozent verbessert.

Anzeige
Anzeige

Auch bei Vision- und Code-Anwendungsfällen schnitten beide Modelle besser ab, mit Steigerungen zwischen 2 und 7 Prozent bei Evaluierungen des visuellen Verständnisses und der Generierung von Python-Code.

Bild: Google

Die Antworten der Modelle seien insgesamt hilfreicher geworden, während sie weiterhin Googles Standards für die Sicherheit von Inhalten einhielten. Als Reaktion auf das Feedback der Entwickler hätten beide Modelle nun einen präziseren Stil, der sie einfacher und kostengünstiger in der Anwendung machen soll.

Google hat außerdem eine verbesserte Version des im August angekündigten experimentellen Modells Gemini 1.5 veröffentlicht. Diese Version "Gemini-1.5-Flash-8B-Exp-0924" soll signifikante Leistungssteigerungen sowohl bei Text- als auch bei multimodalen Anwendungsfällen bieten.

Die Gemini-Modelle sind über Google AI Studio, die Gemini API und für Google Cloud-Kunden auch auf Vertex AI verfügbar. Für Gemini Advanced-Nutzer stellt Google in Kürze eine für Chats optimierte Version von Gemini 1.5 Pro-002 in Aussicht.

Die neuen Preise gelten ab dem 1. Oktober 2024 für Prompts mit weniger als 128.000 Token. In Verbindung mit dem Context Caching sollen die Kosten für die Entwicklung mit Gemini weiter sinken.

Anzeige
Anzeige
Community beitreten
Kommt in die DECODER-Community bei Discord,Reddit, Twitter und Co. - wir freuen uns auf euch!
Empfehlung
Unterstütze unsere unabhängige, frei zugängliche Berichterstattung. Jeder Betrag hilft und sichert unsere Zukunft. Jetzt unterstützen:
Banküberweisung
Zusammenfassung
  • Google hat zwei verbesserte Versionen seiner Gemini-KI-Modelle veröffentlicht: Gemini-1.5-Pro-002 und Gemini-1.5-Flash-002. Die neuen Modelle sollen leistungsfähiger, schneller und günstiger als ihre Vorgänger sein.
  • Die Preise für Gemini 1.5 Pro wurden für Input- und Output-Token um mehr als 50 Prozent gesenkt. Zudem wurden die Ratenlimits für beide Modelle erhöht und die Latenz verringert. In verschiedenen Benchmarks, insbesondere in den Bereichen Mathematik, langer Kontext und Vision, haben sich die Modelle verbessert.
  • Die Gemini-Modelle sind über Google AI Studio, die Gemini API und für Google Cloud-Kunden auch auf Vertex AI verfügbar. Für Gemini Advanced-Nutzer stellt Google in Kürze eine für Chats optimierte Version von Gemini 1.5 Pro-002 in Aussicht.
Quellen
Online-Journalist Matthias ist Gründer und Herausgeber von THE DECODER. Er ist davon überzeugt, dass Künstliche Intelligenz die Beziehung zwischen Mensch und Computer grundlegend verändern wird.
Community beitreten
Kommt in die DECODER-Community bei Discord,Reddit, Twitter und Co. - wir freuen uns auf euch!