Inhalt
summary Zusammenfassung

Das einfache Hochskalieren von Sprachmodellen stößt an Grenzen. Führende KI-Labore setzen daher nun auf "test-time compute" - mehr Rechenleistung beim Einsatz der Modelle statt beim Training.

Anzeige

Wie Reuters unter Berufung auf Gespräche mit einem Dutzend KI-Forschern und Investoren berichtet, setzen führende KI-Unternehmen künftig verstärkt auf "test-time compute" statt auf immer größere Modelle. Das Potenzial des reinen Datentrainings immer größerer Modelle sei ausgereizt.

Laut Reuters berichten drei mit der Situation vertraute Quellen von Verzögerungen und enttäuschenden Ergebnissen. Die sogenannten "Training Runs" zur Entwicklung dieser Modelle verschlingen zweistellige Millionenbeträge und sind aufgrund der Komplexität der Systeme anfällig für Hardware-Ausfälle.

Erst nach monatelangem Training zeigt sich, ob ein Modell die erwartete Leistung erbringt. Ein möglicher Grund für die Stagnation bei der Skalierung ist der Mangel an qualitativ hochwertigen Trainingsdaten und allgemein das Wissen, das sich aus diesen Daten für ein KI-Modell ableiten lässt.

Anzeige
Anzeige

Erst vor wenigen Tagen berichtete The Information, dass OpenAIs nächstes großes Sprachmodell "Orion" kaum Verbesserungen gegenüber GPT-4o aufweist. Auch Google soll mit seinem Modell Gemini 2.0 mit ähnlichen Problemen zu kämpfen haben. Anthropic soll die Entwicklung der Version 3.5 seines Flaggschiffmodells Opus auf Eis gelegt haben. (Update: Anthropic-CEO Dario Amodei sagt: „Das Ziel ist es, die Kurve zu verschieben, und dann wird es irgendwann ein Opus 3.5 geben.“)

KI-Branche laut Entwickler-Ikone zurück im "Zeitalter der Entdeckungen"

"Die 2010er Jahre waren das Zeitalter der Skalierung, jetzt sind wir wieder im Zeitalter der Entdeckungen", sagt OpenAI-Mitbegründer Ilya Sutskever gegenüber Reuters. Es sei jetzt wichtig, "die richtige Sache" zu skalieren.

Sutskever, der inzwischen das KI-Labor Safe Superintelligence (SSI) leitet, war einst selbst ein Verfechter des "Bigger is Better"-Ansatzes und macht ihn durch die GPT-Modelle bekannt. Er war als Chefwissenschaftler eine prägende Figur hinter OpenAIs schnellen KI-Fortschritten.

Anlässlich der Finanzierungsrunde seines Start-ups SSI sagte er, sein Ziel sei es, "das Thema Skalierung anders anzugehen als OpenAI". Da Sutskever OpenAI erst im Mai verlassen hat, müsste er über o1 Bescheid wissen - es sei denn, OpenAI hat nach seinem Weggang eine Strategieänderung vorgenommen.

"Test-time compute": KI-Modelle bekommen mehr Zeit zum Nachdenken

Die neue Hoffnung der Branche heißt "test-time compute": Statt die Modelle immer weiter aufzublähen, sollen sie mehr Zeit zum "Nachdenken" bekommen. Das neue o1-Modell von OpenAI folgt diesem Prinzip.

Empfehlung

Das Ziel sind KI-Systeme, die nicht nur Wahrscheinlichkeiten berechnen, sondern tatsächlich Probleme Schritt für Schritt durchdenken. Anstatt sofort eine Antwort zu geben, generiert das Modell mehrere Lösungsmöglichkeiten, bewertet diese in Echtzeit systematisch und wählt den besten Lösungsweg aus.

OpenAI-Chef Sam Altman sagte Anfang November, dass seine Firma o1 und dessen Nachfolger priorisieren würde. Andere führende KI-Labore wie Anthropic, xAI, Meta und Google DeepMind arbeiten laut Reuters und anderen Medien ebenfalls an ähnlichen Ansätzen.

Auch die Entwicklung von LLMs wird voraussichtlich weitergehen, wenngleich die Leistungssprünge immer kleiner werden. Denn in der Praxis könnten beide Methoden kombiniert werden, um ein optimales Kosten-Nutzen-Verhältnis zu erzielen. OpenAIs o1 ist etwa besser in Mathematik, schreibt aber beim Schreiben von Texten liegt GPT-4o bei geringerem Ressourcenverbrauch knapp vorn.

Nvidias Monopol bei KI-Grafikkarten könnte bröckeln

Der Übergang zu "test-time compute" könnte eine Herausforderung für Nvidias Monopolstellung bei Grafikkarten darstellen. Die Dominanz von Nvidia beruht insbesondere auf den massiven Trainingsclustern, die für das Training großer Sprachmodelle benötigt werden.

Anzeige
Anzeige
Community beitreten
Kommt in die DECODER-Community bei Discord,Reddit, Twitter und Co. - wir freuen uns auf euch!

Bei reinen Inferenzanwendungen, wie sie bei "test-time compute" im Vordergrund stehen, gibt es mehr Chip-Konkurrenz, etwa durch Spezialchips wie Groq und andere Anbieter. Aber auch die Karten von Nvidia sind für diesen Zweck geeignet.

Unterstütze unsere unabhängige, frei zugängliche Berichterstattung. Jeder Betrag hilft und sichert unsere Zukunft. Jetzt unterstützen:
Banküberweisung
Zusammenfassung
  • Führende KI-Unternehmen setzen künftig verstärkt auf "test-time compute" statt auf immer größere Sprachmodelle, da das Potenzial des reinen Datentrainings ausgereizt scheint.
  • "Test-time compute" gibt KI-Modellen mehr Zeit zum "Nachdenken", indem sie mehrere Lösungsmöglichkeiten generieren, diese systematisch bewerten und den besten Lösungsweg auswählen.
  • Der Übergang zu "test-time compute" könnte Nvidias Monopolstellung bei Grafikkarten herausfordern, da bei reinen Inferenzanwendungen mehr Chip-Konkurrenz besteht. Allerdings sind auch Nvidias Karten für diesen Zweck geeignet.
Quellen
Online-Journalist Matthias ist Gründer und Herausgeber von THE DECODER. Er ist davon überzeugt, dass Künstliche Intelligenz die Beziehung zwischen Mensch und Computer grundlegend verändern wird.
Community beitreten
Kommt in die DECODER-Community bei Discord,Reddit, Twitter und Co. - wir freuen uns auf euch!