Inhalt
summary Zusammenfassung

Der Preiskampf bei KI-Modellen geht weiter: Google senkt die Preise für das schnelle Gemini 1.5 Flash um bis zu 78 Prozent.

Anzeige

Laut Google sinken die Kosten für Eingabe-Token um 78 Prozent auf 0,075 US-Dollar pro Million Token. Die Kosten für Output-Token sinken um 71 Prozent auf 0,30 US-Dollar pro Million Token, solange die Prompts weniger als 128.000 Token umfassen. Für längere Prompts und Caching gelten die Preissenkungen entsprechend.

Bild: Google

Gemini 1.5 Flash ist laut Google das beliebteste Modell für Anwendungsfälle, die hohe Geschwindigkeit und geringe Latenz erfordern, wie Zusammenfassungen, Kategorisierung und multimodales Verstehen.

Die Gemini-API und AI Studio unterstützen nun das Verständnis von PDFs durch Text und Bild. Enthält eine PDF Grafiken, Bilder oder andere visuelle Inhalte, nutzt das Modell native multimodale Fähigkeiten zur Verarbeitung.

Anzeige
Anzeige

Mehr Sprachen und Fine-Tuning

Darüber hinaus hat Google das Sprachverständnis für die Gemini 1.5 Pro- und Flash-Modelle auf mehr als 100 Sprachen erweitert. Entwickler können so weltweit in ihrer bevorzugten Sprache mit den Modellen arbeiten.

Zudem erweitert Google den Zugang für Gemini 1.5 Flash Fine-Tuning. Es steht nun allen Entwicklern über die Gemini-API und Google AI Studio zur Verfügung. Durch Fine-Tuning können Entwickler Basismodelle anpassen und die Leistung für bestimmte Aufgaben verbessern, indem sie dem Modell zusätzliche Daten zur Verfügung stellen. Das reduziert die Kontextgröße von Prompts, verringert Latenz und Kosten und kann die Genauigkeit des Modells erhöhen.

Googles Ankündigung folgt auf OpenAIs Bekanntgabe, dass die API-Preise bei GPT-4o nur wenige Wochen nach der Veröffentlichung um bis zu 50 Prozent sinken. Die Modellanbieter liefern sich also trotz der hohen Entwicklungs- und Betriebskosten der KI-Modelle bereits einen harten Preiskampf.

Anzeige
Anzeige
Community beitreten
Kommt in die DECODER-Community bei Discord,Reddit, Twitter und Co. - wir freuen uns auf euch!
Unterstütze unsere unabhängige, frei zugängliche Berichterstattung. Jeder Betrag hilft und sichert unsere Zukunft. Jetzt unterstützen:
Banküberweisung
Zusammenfassung
  • Google senkt die Preise für sein schnelles KI-Modell Gemini 1.5 Flash um bis zu 78 Prozent. Der Preiskampf bei KI-Modellen geht also trotz hoher Entwicklungs- und Betriebskosten weiter.
  • Gemini 1.5 Flash ist laut Google besonders beliebt für Anwendungen, die hohe Geschwindigkeit und geringe Latenz erfordern. Die Gemini-API und AI Studio unterstützen nun auch das Verständnis von PDFs durch Text und Bild mittels nativer multimodaler Fähigkeiten.
  • Zusätzlich hat Google das Sprachverständnis von Gemini 1.5 Pro und Flash auf über 100 Sprachen erweitert und den Zugang für Fine-Tuning von Gemini 1.5 Flash für alle Entwickler geöffnet
Quellen
Online-Journalist Matthias ist Gründer und Herausgeber von THE DECODER. Er ist davon überzeugt, dass Künstliche Intelligenz die Beziehung zwischen Mensch und Computer grundlegend verändern wird.
Community beitreten
Kommt in die DECODER-Community bei Discord,Reddit, Twitter und Co. - wir freuen uns auf euch!