Inhalt
summary Zusammenfassung

OpenAI ermöglicht Entwicklern nun das Fine-Tuning von GPT-4o. Die Anpassung des Sprachmodells soll die Leistung für spezifische Anwendungsfälle verbessern und die Kosten senken.

Anzeige

Laut OpenAI ermöglicht das Fine-Tuning eine Anpassung der Struktur und des Tons der Antworten sowie die Befolgung komplexer domänenspezifischer Anweisungen. Bereits mit wenigen Dutzend Beispielen im Trainingsdatensatz sollen sich gute Ergebnisse erzielen lassen.

OpenAI präsentiert zwei Anwendungsbeispiele für das Fine-Tuning: Das Unternehmen Cosine erreichte mit seinem KI-Assistenten Genie einen Spitzenwert von 43,8 Prozent auf dem SWE-bench Verified Benchmark für Software-Engineering. Distyl erzielte mit einem angepassten GPT-4o-Modell den ersten Platz auf dem BIRD-SQL-Benchmark für Text-zu-SQL-Aufgaben mit einer Genauigkeit von 71,83 Prozent.

Fine-Tuning für GPT-4o startet mit kostenlosen Trainings-Token bis 23. September

OpenAI betont, dass die Kontrolle über die angepassten Modelle vollständig bei den Entwicklern verbleibt. Die eingegebenen Daten sollen ausschließlich zur Verfeinerung des eigenen Modells verwendet werden, nicht aber zum Training anderer Modelle.

Anzeige
Anzeige

Das Unternehmen setzt jedoch nach eigenen Angaben Sicherheitsmaßnahmen ein, um einen Missbrauch der Modelle zu verhindern, und überwacht auch die fine-getunten Modelle auf mögliche Sicherheitsverletzungen.

Das Fine-Tuning steht allen Entwicklern mit kostenpflichtigen Nutzungsstufen zur Verfügung. Die Kosten betragen 25 US-Dollar pro Million Token für das Training sowie 3,75 US-Dollar pro Million Eingabe-Token und 15 US-Dollar pro Million Ausgabe-Token für die Inferenz.

Zusätzlich bietet OpenAI ein Fine-Tuning für GPT-4o mini an. Bis zum 23. September stellt das Unternehmen dafür täglich zwei Millionen Trainings-Token kostenlos zur Verfügung. Für GPT-4o gibt es ebenfalls bis zum 23. September täglich eine Million Trainings-Token kostenlos.

Fine-Tuning kann helfen, ist aber kein Allheilmittel gegen KI-Fehler

Fine-Tuning ist ein Prozess, der dazu beiträgt, die Leistung von KI-Modellen zu verbessern und sie auf spezifische Aufgaben zuzuschneiden. Es kann Modellen helfen, Inhalte besser zu verstehen und das vorhandene Wissen und die Fähigkeiten eines Modells für eine bestimmte Aufgabe zu erweitern. OpenAIs neue Fine-Tuning-Angebote sind Teil eines generellen Programms, KI-Modelle für Unternehmen zu individualisieren.

Ein unabhängiger Test des GPT-4-Feintunings durch die Datenanalyseplattform Supersimple zeigte, dass ein nachtrainiertes KI-Modell die Leistung bei spezifischen Aufgaben gegenüber einem Standardmodell deutlich verbessern, wenn auch nicht perfektionieren kann. Allerdings war der Leistungssprung bei GPT-4 geringer als beim Wechsel von GPT-3 zu GPT-3.5.

Anzeige
Anzeige
Community beitreten
Kommt in die DECODER-Community bei Discord,Reddit, Twitter und Co. - wir freuen uns auf euch!
Empfehlung
Unterstütze unsere unabhängige, frei zugängliche Berichterstattung. Jeder Betrag hilft und sichert unsere Zukunft. Jetzt unterstützen:
Banküberweisung
Zusammenfassung
  • OpenAI ermöglicht Entwicklern nun, das Sprachmodell GPT-4o mit eigenen Daten zu optimieren (Fine-Tuning). Damit sollen sich Struktur und Ton der Antworten anpassen sowie komplexe domänenspezifische Anweisungen befolgen lassen.
  • In Anwendungsbeispielen erreichten mit GPT-4o fine-getunte Modelle Spitzenwerte auf Benchmarks für Software-Engineering (43,8 % auf SWE-bench Verified) und Text-zu-SQL-Aufgaben (71,83 % auf BIRD-SQL).
  • Das Fine-Tuning steht allen Entwicklern mit kostenpflichtigen Nutzungsstufen zur Verfügung. Die Kontrolle über die angepassten Modelle verbleibt bei den Entwicklern. OpenAI setzt jedoch Sicherheitsmaßnahmen ein, um Missbrauch zu verhindern. Bis 23. September gibt es begrenzte kostenlose Kontingente.
Quellen
Online-Journalist Matthias ist Gründer und Herausgeber von THE DECODER. Er ist davon überzeugt, dass Künstliche Intelligenz die Beziehung zwischen Mensch und Computer grundlegend verändern wird.
Community beitreten
Kommt in die DECODER-Community bei Discord,Reddit, Twitter und Co. - wir freuen uns auf euch!