Die jüngsten Erfolge von OpenAIs o3-Modell zeigen, dass sich der KI-Fortschritt weiter beschleunigen könnte. Anthropic-Mitgründer Jack Clark erwartet für 2025 noch dramatischere Entwicklungen.
Die Entwicklung künstlicher Intelligenz wird sich 2025 noch einmal deutlich beschleunigen. Zu dieser Einschätzung kommt Anthropic-Mitgründer Jack Clark in seinem Newsletter "Import AI".
Der ehemalige OpenAI-Kommunikator widerspricht damit Einschätzungen, wonach die Skalierung von KI-Modellen an ihre Grenzen stößt.
"Jeder, der behauptet hat, der Fortschritt verlangsame sich oder die Skalierung stoße an Grenzen, liegt falsch", schreibt Clark.
Das neue o3-Modell von OpenAI zeige, dass es noch enormes Potenzial in der Skalierung gebe - allerdings auf eine neue Art.
Statt nur die Modellgröße zu erhöhen, setzt o3 auf Reinforcement Learning und zusätzliche Rechenleistung während der Ausführung. Diese Fähigkeit der Modelle, zur Laufzeit "laut zu denken", eröffnet laut Clark gänzlich neue Möglichkeiten der Skalierung.
Clark erwartet, dass sich dieser Trend 2025 noch verstärken wird, wenn bestehende Skalierungsansätze wie größere Grundlagenmodelle mit dem sogenannten test-time compute scaling kombiniert werden.
Neue Ära der KI-Entwicklung kostet noch mehr Geld
Clark warnt in seinem Newsletter, dass die meisten Beobachter die Geschwindigkeit der kommenden Entwicklung unterschätzen. "Ich denke, dass im Grunde niemand einpreist, wie drastisch der Fortschritt von hier aus sein wird", schreibt Clark.
Die einzige Einschränkung sei der deutlich höhere Rechenaufwand: Die beste Version von o3 benötigt 170-mal mehr Compute als die Basisversion, die wiederum mehr Rechenleistung als o1 benötigt.
Das mache die Kosten für den Betrieb solcher Systeme weniger vorhersehbar. Bisher ließ sich der Aufwand anhand der Modellgröße und der Ausgabelänge gut berechnen. Bei o3 hängen die Kosten stark vom konkreten Problem ab.
Dennoch ist Clark überzeugt: Die Kombination aus klassischer Modellskalierung und neuen Ansätzen wird 2025 zu "noch dramatischeren" KI-Fortschritten führen als bisher.
Wann legt Anthropic nach?
Interessant sind Clarks Aussagen auch vor dem Hintergrund, dass Anthropic bislang noch kein eigenes "Reasoning"- oder "test-time"-Modell ähnlich zu OpenAIs o-Serie oder Googles Gemini Flash Thinking vorgestellt hat.
Das bereits in Aussicht gestellte "klassische" Flaggschiff-Sprachmodell Opus 3.5 ist bislang nicht erschienen - angeblich war der Leistungssprung nicht signifikant im Verhältnis zu den Betriebskosten. Opus 3.5 soll aber Trainingsdaten für das viel günstigere neue Sonnet 3.5 geliefert haben, das derzeit das wohl beliebteste Sprachmodell am Markt ist.