Sam Altman, CEO von OpenAI, betonte in einem Interview die Bedeutung qualitativ hochwertiger Daten für das Training von KI-Modellen. Das Unternehmen verfüge derzeit über ausreichend Daten für die nächste Iteration nach GPT-4, so Altman.
OpenAI-Mitbegründer und CEO Sam Altman spricht in einem Interview über die Bedeutung von Trainingsdaten für die Weiterentwicklung von KI-Modellen.
Altman zufolge benötigen KI-Systeme zum Trainieren qualitativ hochwertige Daten, unabhängig davon, ob es sich um von Menschen erzeugte oder synthetische Daten handelt. Daten minderer Qualität, ob von Menschen oder KI, seien problematisch. Dass zu viele KI-generierte Daten ein KI-System korrumpieren könnten, scheint Altman nicht zu beunruhigen.
"Ich glaube, was wir brauchen, sind qualitativ hochwertige Daten. Es gibt minderwertige synthetische Daten und es gibt minderwertige menschliche Daten", so Altman in einem Interview auf dem AI for Good Global Summit.
Derzeit verfüge OpenAI über genügend Daten, um die nächste Iteration nach dem GPT-4-Modell zu trainieren, so Altman.
Laut dem OpenAI-Chef hat das Unternehmen auch mit der Generierung großer Mengen synthetischer Daten experimentiert, um verschiedene Techniken für das KI-Training zu erforschen.
Die Kernfrage sei jedoch, wie KI-Systeme aus weniger Daten mehr lernen können, anstatt einfach riesige Mengen synthetischer Daten für das Training zu generieren. Es wäre "sehr merkwürdig", wenn die beste Methode zum Trainieren eines Modells darin bestünde, "eine Quadrillion Token synthetischer Daten zu erzeugen und sie wieder einzuspeisen", so Altman.
Für Altman ist die Dateneffizienz beim Lernen entscheidend. "Im Grunde geht es darum, wie man aus weniger Daten mehr lernen kann", sagt Altman.
Er räumt jedoch ein, dass OpenAI und andere Unternehmen noch herausfinden müssen, welche Daten und Techniken am besten geeignet sind, um immer leistungsfähigere KI-Systeme zu trainieren.
Altmans Aussagen werden von der Wissenschaft gestützt, die nachweisen kann, dass die Datenqualität einen positiven Einfluss auf die Leistung von KI hat. Sie passen auch zum Vorgehen von OpenAI, das in den vergangenen Monaten Hunderte Millionen in die Lizenzierung von Trainingsdaten großer Verlage investiert hat.