KI mit eigenen Daten optimieren: OpenAI startet Fine-Tuning-Angebot für GPT-4o
Kurz & Knapp
- OpenAI ermöglicht Entwicklern nun, das Sprachmodell GPT-4o mit eigenen Daten zu optimieren (Fine-Tuning). Damit sollen sich Struktur und Ton der Antworten anpassen sowie komplexe domänenspezifische Anweisungen befolgen lassen.
- In Anwendungsbeispielen erreichten mit GPT-4o fine-getunte Modelle Spitzenwerte auf Benchmarks für Software-Engineering (43,8 % auf SWE-bench Verified) und Text-zu-SQL-Aufgaben (71,83 % auf BIRD-SQL).
- Das Fine-Tuning steht allen Entwicklern mit kostenpflichtigen Nutzungsstufen zur Verfügung. Die Kontrolle über die angepassten Modelle verbleibt bei den Entwicklern. OpenAI setzt jedoch Sicherheitsmaßnahmen ein, um Missbrauch zu verhindern. Bis 23. September gibt es begrenzte kostenlose Kontingente.
OpenAI ermöglicht Entwicklern nun das Fine-Tuning von GPT-4o. Die Anpassung des Sprachmodells soll die Leistung für spezifische Anwendungsfälle verbessern und die Kosten senken.
Laut OpenAI ermöglicht das Fine-Tuning eine Anpassung der Struktur und des Tons der Antworten sowie die Befolgung komplexer domänenspezifischer Anweisungen. Bereits mit wenigen Dutzend Beispielen im Trainingsdatensatz sollen sich gute Ergebnisse erzielen lassen.
OpenAI präsentiert zwei Anwendungsbeispiele für das Fine-Tuning: Das Unternehmen Cosine erreichte mit seinem KI-Assistenten Genie einen Spitzenwert von 43,8 Prozent auf dem SWE-bench Verified Benchmark für Software-Engineering. Distyl erzielte mit einem angepassten GPT-4o-Modell den ersten Platz auf dem BIRD-SQL-Benchmark für Text-zu-SQL-Aufgaben mit einer Genauigkeit von 71,83 Prozent.
Fine-Tuning für GPT-4o startet mit kostenlosen Trainings-Token bis 23. September
OpenAI betont, dass die Kontrolle über die angepassten Modelle vollständig bei den Entwicklern verbleibt. Die eingegebenen Daten sollen ausschließlich zur Verfeinerung des eigenen Modells verwendet werden, nicht aber zum Training anderer Modelle.
Das Unternehmen setzt jedoch nach eigenen Angaben Sicherheitsmaßnahmen ein, um einen Missbrauch der Modelle zu verhindern, und überwacht auch die fine-getunten Modelle auf mögliche Sicherheitsverletzungen.
Das Fine-Tuning steht allen Entwicklern mit kostenpflichtigen Nutzungsstufen zur Verfügung. Die Kosten betragen 25 US-Dollar pro Million Token für das Training sowie 3,75 US-Dollar pro Million Eingabe-Token und 15 US-Dollar pro Million Ausgabe-Token für die Inferenz.
Zusätzlich bietet OpenAI ein Fine-Tuning für GPT-4o mini an. Bis zum 23. September stellt das Unternehmen dafür täglich zwei Millionen Trainings-Token kostenlos zur Verfügung. Für GPT-4o gibt es ebenfalls bis zum 23. September täglich eine Million Trainings-Token kostenlos.
Fine-Tuning kann helfen, ist aber kein Allheilmittel gegen KI-Fehler
Fine-Tuning ist ein Prozess, der dazu beiträgt, die Leistung von KI-Modellen zu verbessern und sie auf spezifische Aufgaben zuzuschneiden. Es kann Modellen helfen, Inhalte besser zu verstehen und das vorhandene Wissen und die Fähigkeiten eines Modells für eine bestimmte Aufgabe zu erweitern. OpenAIs neue Fine-Tuning-Angebote sind Teil eines generellen Programms, KI-Modelle für Unternehmen zu individualisieren.
Ein unabhängiger Test des GPT-4-Feintunings durch die Datenanalyseplattform Supersimple zeigte, dass ein nachtrainiertes KI-Modell die Leistung bei spezifischen Aufgaben gegenüber einem Standardmodell deutlich verbessern, wenn auch nicht perfektionieren kann. Allerdings war der Leistungssprung bei GPT-4 geringer als beim Wechsel von GPT-3 zu GPT-3.5.
KI-News ohne Hype
Von Menschen kuratiert.
- Mehr als 20 Prozent Launch-Rabatt.
- Lesen ohne Ablenkung – keine Google-Werbebanner.
- Zugang zum Kommentarsystem und Austausch mit der Community.
- Wöchentlicher KI-Newsletter.
- 6× jährlich: „KI Radar“ – Deep-Dives zu den wichtigsten KI-Themen.
- Bis zu 25 % Rabatt auf KI Pro Online-Events.
- Zugang zum kompletten Archiv der letzten zehn Jahre.
- Die neuesten KI‑Infos von The Decoder – klar und auf den Punkt.