OpenAI ermöglicht Entwicklern nun das Fine-Tuning von GPT-4o. Die Anpassung des Sprachmodells soll die Leistung für spezifische Anwendungsfälle verbessern und die Kosten senken.
Laut OpenAI ermöglicht das Fine-Tuning eine Anpassung der Struktur und des Tons der Antworten sowie die Befolgung komplexer domänenspezifischer Anweisungen. Bereits mit wenigen Dutzend Beispielen im Trainingsdatensatz sollen sich gute Ergebnisse erzielen lassen.
OpenAI präsentiert zwei Anwendungsbeispiele für das Fine-Tuning: Das Unternehmen Cosine erreichte mit seinem KI-Assistenten Genie einen Spitzenwert von 43,8 Prozent auf dem SWE-bench Verified Benchmark für Software-Engineering. Distyl erzielte mit einem angepassten GPT-4o-Modell den ersten Platz auf dem BIRD-SQL-Benchmark für Text-zu-SQL-Aufgaben mit einer Genauigkeit von 71,83 Prozent.
Fine-Tuning für GPT-4o startet mit kostenlosen Trainings-Token bis 23. September
OpenAI betont, dass die Kontrolle über die angepassten Modelle vollständig bei den Entwicklern verbleibt. Die eingegebenen Daten sollen ausschließlich zur Verfeinerung des eigenen Modells verwendet werden, nicht aber zum Training anderer Modelle.
Das Unternehmen setzt jedoch nach eigenen Angaben Sicherheitsmaßnahmen ein, um einen Missbrauch der Modelle zu verhindern, und überwacht auch die fine-getunten Modelle auf mögliche Sicherheitsverletzungen.
Das Fine-Tuning steht allen Entwicklern mit kostenpflichtigen Nutzungsstufen zur Verfügung. Die Kosten betragen 25 US-Dollar pro Million Token für das Training sowie 3,75 US-Dollar pro Million Eingabe-Token und 15 US-Dollar pro Million Ausgabe-Token für die Inferenz.
Zusätzlich bietet OpenAI ein Fine-Tuning für GPT-4o mini an. Bis zum 23. September stellt das Unternehmen dafür täglich zwei Millionen Trainings-Token kostenlos zur Verfügung. Für GPT-4o gibt es ebenfalls bis zum 23. September täglich eine Million Trainings-Token kostenlos.
Fine-Tuning kann helfen, ist aber kein Allheilmittel gegen KI-Fehler
Fine-Tuning ist ein Prozess, der dazu beiträgt, die Leistung von KI-Modellen zu verbessern und sie auf spezifische Aufgaben zuzuschneiden. Es kann Modellen helfen, Inhalte besser zu verstehen und das vorhandene Wissen und die Fähigkeiten eines Modells für eine bestimmte Aufgabe zu erweitern. OpenAIs neue Fine-Tuning-Angebote sind Teil eines generellen Programms, KI-Modelle für Unternehmen zu individualisieren.
Ein unabhängiger Test des GPT-4-Feintunings durch die Datenanalyseplattform Supersimple zeigte, dass ein nachtrainiertes KI-Modell die Leistung bei spezifischen Aufgaben gegenüber einem Standardmodell deutlich verbessern, wenn auch nicht perfektionieren kann. Allerdings war der Leistungssprung bei GPT-4 geringer als beim Wechsel von GPT-3 zu GPT-3.5.