Inhalt
summary Zusammenfassung

Die Entwicklung von Sprachmodellen scheint ein Plateau erreicht zu haben. Das kommende Sprachmodell Orion von OpenAI soll seinen Vorgänger GPT-4 kaum übertreffen. Die Stagnation bei LLM betrifft die gesamte Branche.

Anzeige

Wie The Information berichtet, zeigt OpenAIs nächstes großes Sprachmodell mit dem Codenamen "Orion" deutlich geringere Leistungsverbesserungen als erhofft. Der Qualitätssprung zwischen GPT-4 und Orion falle wesentlich kleiner aus als der zwischen GPT-3 und GPT-4.

In einigen Bereichen, etwa beim Programmieren, sei Orion nicht einmal durchgängig besser als sein Vorgänger. Lediglich bei Sprachfähigkeiten zeige das Modell Verbesserungen. Zusätzlich könnte der Betrieb von Orion in den Rechenzentren teurer werden als bei bisherigen Modellen.

Mangel an hochwertigen Trainingsdaten

Ein Grund für die Stagnation ist laut OpenAI-Forschern ein Mangel an hochwertigen Trainingsdaten. Die öffentlich verfügbaren Texte und Daten seien weitgehend ausgeschöpft. Als Reaktion darauf hat OpenAI ein "Foundations Team" unter der Leitung von Nick Ryder gegründet, berichtet The Information.

Anzeige
Anzeige

Diese Beschreibung passt zu einer Aussage von Altman im Sommer, dass zwar genügend Daten vorhanden sind, es aber in Zukunft darum gehen wird, aus weniger Daten mehr zu lernen. Dabei sollen auch synthetische Daten, also von einem KI-Modell generierte Trainingsdaten, helfen.

Das kommende Modell Orion wurde laut The Informaton bereits teilweise mit synthetischen Daten von GPT-4 und OpenAIs neuem "Logik"-Modell o1 trainiert. Das berge aber auch die Gefahr, dass das neue Modell die alten Modelle teilweise nachahmt.

LLM-Stagnation stellt die Branche vor eine Herausforderung

Die Stagnation beschränkt sich nicht auf OpenAI. Laut The Verge bleibt auch Googles kommendes Gemini 2.0 hinter den internen Erwartungen zurück. Anthropic hat angeblich die Entwicklung seiner Version 3.5 des Flaggschiffmodells Opus vorerst auf Eis gelegt und stattdessen ein verbessertes Sonnet veröffentlicht, möglicherweise aus Sorge, die Erwartungen von Nutzern und Investoren zu enttäuschen.

Dass große Sprachmodelle stagnieren, zeigt sich auch daran, dass Open-Source-Modelle in den vergangenen 1,5 Jahren zu den mit Milliarden finanzierten proprietären Modellen aufschließen konnten. Das wäre kaum möglich gewesen, hätten die großen Tech-Konzerne ihre massiven Investitionen effektiv in mehr KI-Leistung umsetzen können.

Streudiagramm: Konvergenz der MMLU-Scores verschiedener Sprachmodelle zwischen 2022-2024, zeigt Angleichung der Leistungsniveaus.
Die Leistungsfähigkeit verschiedener Sprachmodelle nähert sich einem gemeinsamen Niveau an. Während frühere Modelle noch deutliche Leistungsunterschiede aufwiesen, zeigt sich seit 2023 eine klare Konvergenz der MMLU-Scores - ein Hinweis darauf, dass die Modelle ein temporäres Leistungsplateau erreicht haben. | Bild: Maxime Labonne

Trotz dieser Entwicklung gibt sich OpenAI-CEO Sam Altman in einem aktuellen Interview zuversichtlich. Der Pfad zur künstlichen allgemeinen Intelligenz (AGI) sei im Grunde klar. Eine wichtige Aufgabe sei es, bestehende Modelle kreativ zu nutzen. Altman könnte sich hier auf die Verbindung von LLMs, Reasoning-Ansätzen wie o1 und agentischer KI beziehen.

Empfehlung

Laut Noam Brown, renommierter KI-Entwickler bei OpenAI, zuvor bei Meta, und einer der Köpfe hinter o1, ist Altmans Aussage kein Hype, sondern entspricht der Mehrheitsmeinung der OpenAI-Forscher.

Speziell das neue o1-Modell soll einen neuen Skalierungshorizont schaffen. Hier wird die Rechenleistung nicht mehr hauptsächlich für das Training verwendet, sondern für die Rechenzeit, die das KI-Modell benötigt, um eine Aufgabe zu lösen, die sogenannte Inferenz.

Brown geht davon aus, dass dieses neue Skalierungsprinzip weit tragen wird. Es wird aber auch Milliarden kosten und viel Energie verbrauchen. Eine der Kernfragen der KI-Branche wird daher sein, ob die Entwicklung immer leistungsfähigerer KI-Modelle und damit der Bau riesiger Rechenzentren ökonomisch und ökologisch sinnvoll ist. OpenAI scheint davon überzeugt zu sein.

Grundlegende Kritik an der LLM-Entwicklung

Der Google-KI-Experte François Chollet hingegen übt auf X derweil grundlegende Kritik an der reinen Skalierung von Sprachmodellen für mathematische Aufgaben. Er bezeichnet es als "besonders stumpfsinnig", wenn Fortschritte bei mathematischen Benchmarks als Beweis für künstliche allgemeine Intelligenz (AGI) angeführt werden.

Anzeige
Anzeige
Community beitreten
Kommt in die DECODER-Community bei Discord,Reddit, Twitter und Co. - wir freuen uns auf euch!

Laut Chollet zeigen die empirischen Daten vielmehr, dass Deep Learning im Allgemeinen und große Sprachmodelle im Besonderen nicht eigenständig mathematische Probleme lösen können. Stattdessen seien dafür diskrete Suchmethoden notwendig.

Statt wie ein Sprachmodell zu "raten", welche Antwort wahrscheinlich richtig sein könnte, navigiert ein diskreter Suchalgorithmus systematisch durch einen klar definierten Lösungsraum und prüft verschiedene Lösungswege, bis er die korrekte Lösung findet.

Der KI-Forscher kritisiert auch, dass der Begriff "LLM" zunehmend als Marketingbegriff für alle aktuellen KI-Fortschritte missbraucht wird, obwohl viele dieser Fortschritte gar nichts mit Sprachmodellen zu tun hätten.

So sei etwa die Integration von Gemini in Google Deepminds AlphaProof "im Wesentlichen kosmetischer Natur und für Marketingzwecke" erfolgt.

Unterstütze unsere unabhängige, frei zugängliche Berichterstattung. Jeder Betrag hilft und sichert unsere Zukunft. Jetzt unterstützen:
Banküberweisung
Zusammenfassung
  • Das nächste große Sprachmodell von OpenAI, "Orion", soll gegenüber dem Vorgänger GPT-4 deutlich geringere Leistungsverbesserungen aufweisen als erwartet. In einigen Bereichen, etwa der Programmierung, sei es nicht durchgängig besser. Ein Grund dafür ist der Mangel an qualitativ hochwertigen Trainingsdaten.
  • Die Stagnation bei der Entwicklung großer Sprachmodelle betrifft die gesamte KI-Branche. Auch Googles Gemini 2.0 soll hinter den Erwartungen zurückbleiben. Anthropic hat sein lange angekündigtes Opus 3.5 bisher nicht veröffentlicht.
  • Trotz der Herausforderungen bleibt OpenAI CEO Sam Altman zuversichtlich. Insbesondere das neue o1-Modell soll durch die Skalierung der Rechenleistung für Inferenz einen neuen Entwicklungshorizont eröffnen.
Quellen
Online-Journalist Matthias ist Gründer und Herausgeber von THE DECODER. Er ist davon überzeugt, dass Künstliche Intelligenz die Beziehung zwischen Mensch und Computer grundlegend verändern wird.
Community beitreten
Kommt in die DECODER-Community bei Discord,Reddit, Twitter und Co. - wir freuen uns auf euch!