Inhalt
summary Zusammenfassung

Ein neuer Simulator von Epoch AI zeigt, dass das Training von Modellen im GPT-4-Maßstab auch mit älterer Hardware möglich gewesen wäre – allerdings zu deutlich höheren Kosten.

Anzeige

Das KI-Forschungsunternehmen Epoch AI hat einen interaktiven Simulator für verteiltes Training veröffentlicht, mit dem sich die Rechenleistung für das Training großer Sprachmodelle simulieren lässt. Laut Epoch AI ermöglicht das Tool unter anderem die Beantwortung der Frage, ob man GPT-4 auch auf Grafikprozessoren (GPUs) aus dem Jahr 2012 hätte trainieren können.

Der Simulator setzt die FLOP-Auslastung (Floating Point Operations Per Second) eines Modells mit der für das Training benötigten Rechenleistung in Beziehung. Dabei zeige sich, so Epoch AI, dass die bestmögliche Auslastung mit zunehmender Modellgröße auf gleicher Hardware abnimmt.

Liniendiagramm: FLOP-Auslastungsraten von drei GPU-Modellen (V100, A100, H100) über verschiedene Trainingsgrößen, zeigt abnehmende Effizienz.
Die FLOP-Auslastungsraten verschiedener GPU-Modelle sinken mit zunehmender Trainingsgröße deutlich ab. V100, A100 und H100 zeigen unterschiedliche Effizienzverläufe, wobei neuere Architekturen länger hohe Auslastungen halten können. | Bild: Epoch AI

Zehnmal höhere Kosten mit alter Hardware

In einem Experiment simulierte Epoch AI das Training mit einer GPU vom Typ GTX 580 mit 3GB Speicher - jener Grafikkarte, die 2012 für das Training des berühmten AlexNet-Modells verwendet wurde.

Anzeige
Anzeige

Das überraschende Ergebnis: Selbst mit dieser alten Hardware wäre das Training eines GPT-4-ähnlichen Modells technisch machbar gewesen.

Da das Training von GPT-4 schätzungsweise zwischen 1e25 und 1e26 FLOP benötigt, deutet die Simulation laut Epoch AI darauf hin, dass Modelle dieser Größenordnung auch mit der Technologie von 2012 trainiert hätten werden können. Allerdings wären die Kosten im Vergleich zu heute etwa zehnmal höher gewesen.

Der Simulator erlaubt es Nutzern, eigene GPU-Konfigurationen zu definieren und verschiedene Modell-Skalierungsstrategien zu testen. So können etwa die Leistungsunterschiede zwischen modernen GPUs wie der H100 und A100 analysiert oder die Auswirkungen verschiedener Batch-Größen untersucht werden.

Auch die Parallelisierung des Trainings über mehrere GPUs hinweg kann simuliert werden. Nutzer können detaillierte Protokolldateien herunterladen, die die Ausgaben des Modells zeigen.

Tool soll Verständnis für Hardware-Anforderungen verbessern

Der Simulator ermöglicht auch komplexere Simulationen, beispielsweise für das Training in mehreren Rechenzentren. Durch die Angabe der Rechenzentrumsgröße, Latenz und Bandbreite der Verbindungen zwischen den Rechenzentren lässt sich simulieren, wie Trainingsläufe über mehrere Standorte verteilt werden könnten.

Empfehlung

Epoch AI hofft, dass das Tool dazu beiträgt, die Bedeutung zukünftiger Fortschritte bei der Hardwareeffizienz und die Auswirkungen von Chip-Exportkontrollen besser zu verstehen. Es soll außerdem das öffentliche Verständnis dafür verbessern, welche Hardware für die großen Trainingsläufe benötigt wird, die in diesem Jahrzehnt zu erwarten sind.

Anzeige
Anzeige
Community beitreten
Kommt in die DECODER-Community bei Discord,Reddit, Twitter und Co. - wir freuen uns auf euch!
Unterstütze unsere unabhängige, frei zugängliche Berichterstattung. Jeder Betrag hilft und sichert unsere Zukunft. Jetzt unterstützen:
Banküberweisung
Zusammenfassung
  • Das KI-Forschungsunternehmen Epoch AI hat einen interaktiven Simulator für verteiltes Training veröffentlicht, der die Rechenleistung simuliert, die für das Training großer Sprachmodelle erforderlich ist.
  • Eine Simulation mit einer GTX 580 GPU aus dem Jahr 2012 deutet darauf hin, dass das Training von GPT-4 auch mit der Technologie von damals möglich gewesen wäre, allerdings zu etwa zehnmal höheren Kosten im Vergleich zu heute.
  • Der Simulator ermöglicht komplexere Simulationen, beispielsweise für das Training in mehreren Rechenzentren, und soll dazu beitragen, die Bedeutung zukünftiger Fortschritte bei der Hardwareeffizienz und die Auswirkungen von Chip-Exportkontrollen besser zu verstehen.
Quellen
Online-Journalist Matthias ist Gründer und Herausgeber von THE DECODER. Er ist davon überzeugt, dass Künstliche Intelligenz die Beziehung zwischen Mensch und Computer grundlegend verändern wird.
Community beitreten
Kommt in die DECODER-Community bei Discord,Reddit, Twitter und Co. - wir freuen uns auf euch!