Microsoft und OpenAI bieten jetzt Fine-Tuning-Dienste für das kürzlich vorgestellte GPT-4o mini-Modell und Phi-3 an. Damit können Entwickler die Modelle für spezifische Anwendungsfälle anpassen.
Laut OpenAI ist das Fine-Tuning für GPT-4o mini um 50 Prozent günstiger als für GPT-3.5 Turbo. Zum Start bietet OpenAI zudem bis zum 23. September 2024 ein kostenloses Fine-Tuning mit bis zu zwei Millionen Trainings-Token pro Tag an.
GPT-4o mini ist im Vergleich zu GPT-3.5 Turbo außerdem 90 Prozent günstiger bei den Input-Tokens und 80 Prozent günstiger bei den Output-Tokens. Der Trainings-Kontext ist mit 65.000 Token viermal so lang wie bei GPT-3.5 Turbo, der Inferenzkontext mit 128.000 Token achtmal so lang.
Das neue GPT-4o-mini-Modell bietet zudem mehr Leistung und unterstützt Bildverarbeitung, allerdings ist Fine-Tuning derzeit nur für Text verfügbar. Es steht Entwicklern der OpenAI-Level 4 und 5 (mindestens 250 $ bezahlt und 14+ Tage seit der ersten erfolgreichen Zahlung) über das Fine-Tuning-Dashboard zur Verfügung.
Parallel dazu hat Microsoft serverlose Fine-Tuning-Dienste für die Phi-3-mini- und Phi-3-medium-Modelle in Azure AI eingeführt. Laut Microsoft können Entwickler damit Modelle für Cloud- und Edge-Szenarien schnell und einfach anpassen, ohne umfangreiche Rechenressourcen zu benötigen.
Microsoft berichtet zudem von weiteren Verbesserungen durch Updates für das Phi-3-mini-Modell in Bezug auf generelle Qualität, Befolgung von Anweisungen und strukturierte Ausgabe.
Preisdruck im LLM-Markt wächst
Die Rabattaktion von OpenAI ist auch ein Indiz für die Entwicklung des LLM-Marktes: Immer mehr Modelle von immer mehr Herstellern, zum Teil Open Source, konkurrieren um wenige Anwendungsszenarien in einem Markt, der zwar auf großes Interesse stößt, aber noch ein Nischendasein führt.
Aktuell verschärft sich der Wettbewerb sowohl bei den kleinen als auch bei den großen Modellen, die seit der Einführung der GPT-4-Klasse nur inkrementelle Verbesserungen erfahren haben. Ein Preiskampf ist die Folge.