Anzeige
Skip to content

Generelle KI nur durch Sprachmodelle: "Wir haben Sichtverbindung", sagt OpenAI-Präsident

Image description
Nano Banana Pro prompted by THE DECODER

Kurz & Knapp

  • OpenAI-Präsident Greg Brockman erklärt die Debatte über die Grenzen von Textmodellen für beendet: Die GPT-Reasoning-Modelle würden zu AGI (Artificial General Intelligence) führen.
  • OpenAI sehe "eine klare Linie dorthin" und priorisiere diesen Ansatz gegenüber multimodalen Weltmodellen wie Sora, die auf "einem anderen Zweig des Technologiebaums" lägen.
  • In der KI-Forschung ist diese Einschätzung umstritten. Yann LeCun und Demis Hassabis (Google Deepmind) etwa halten LLMs allein nicht für ausreichend, um menschenähnliche Intelligenz zu erreichen.

OpenAI-Mitgründer Greg Brockman erklärt die Debatte über die Grenzen von Textmodellen für beendet. Sie werden zu AGI führen.

"Ich denke, wir haben diese Frage definitiv beantwortet. Es wird zu AGI führen. Wir sehen eine klare Linie dorthin", sagt OpenAI-Präsident Greg Brockman über die GPT-Reasoning-Modelle im Big Technology Podcast.

Die Aussage ist bemerkenswert. Brockman erklärt damit eine der zentralen offenen Fragen der KI-Forschung für erledigt. Können Modelle, die primär auf Text trainiert werden, ein echtes Verständnis der Welt entwickeln? Oder braucht es dafür multimodale Weltmodelle wie Sora? Auch bei diesen ist der technische Ansatz umstritten.

Sora sei zwar ein "unglaubliches Modell", liege aber auf "einem anderen Zweig des Technologiebaums" als die GPT-Reasoning-Reihe. Beide gleichzeitig zu verfolgen, sei bei begrenzter Rechenleistung nicht möglich. Es gehe dabei weniger um die relative Wichtigkeit beider Ansätze als um "Reihenfolge und Timing". Die Anwendungen, "von denen wir immer geträumt haben", kämen gerade in Reichweite. Der Weg dorthin führe über die GPT-Architektur.

Anzeige
DEC_D_Incontent-1

Als der Interviewer nachhakt, ob OpenAI durch den Verzicht auf Weltmodelle à la Sora etwas Entscheidendes übersehen könnte, räumt Brockman das Risiko ein. Deepminds Demis Hassabis hatte gesagt, Googles Bildmodell "Nano Banana" fühle sich AGI besonders nahe an. Brockman sagt dazu: "Absolut, ja. In diesem Feld muss man Entscheidungen treffen. Man muss eine Wette eingehen."

Die Grenzen von LLMs sind weiter Anlass für Forschungsdebatten

Ob rein textbasierte Modelle ausreichen, um allgemeine Intelligenz zu erreichen, ist in der KI-Forschung keineswegs Konsens.

Der renommierte KI-Forscher Yann LeCun vertritt seit Jahren die Auffassung, dass LLMs nicht zu menschenähnlicher Intelligenz führen werden. LLMs hätten ein "sehr begrenztes Verständnis von Logik", sie würden "die physische Welt nicht verstehen, kein dauerhaftes Gedächtnis haben, nicht rational denken und nicht hierarchisch planen können". Er setzt stattdessen auf sogenannte Weltmodelle, die ein umfassendes Verständnis der Umwelt entwickeln sollen. Deepmind-Gründer Demis Hassabis sieht es ähnlich. LLM-Skalierung allein genüge nicht, es benötige weitere Durchbrüche.

Der KI-Forscher François Chollet definiert Intelligenz als die Fähigkeit, effizient neue Fertigkeiten zu lernen. Entscheidend sei, wie effizient ein System eigenständig Abstraktionen bildet. Aktuelle Sprachmodelle ließen sich zwar auf einer Intelligenzskala einordnen, lägen dort aber sehr weit unten. Außerhalb ihrer Trainingsdomäne müssten sie alles neu lernen. Kontinuierliches Lernen könnte hier Abhilfe schaffen.

Anzeige
DEC_D_Incontent-2

Diese Einschätzung deckt sich mit einer breiteren Forschungsrichtung. In einem aktuellen Paper fordern die damaligen Deepmind-Forscher Richard Sutton und David Silver einen Paradigmenwechsel. Statt mit menschlichem Wissen zu trainieren, sollten Systeme aus eigener Erfahrung lernen. Silver hat ein eigenes Startup für Simulationslernen gegründet.

Auch der Ex-OpenAI-Forscher Jerry Tworek, einer der Köpfe hinter den Reasoning-Modell-Durchbrüchen bei OpenAI, bezeichnet sein Forschungsfeld Deep Learning als "erledigt". Jetzt müsse man Simulationen menschlicher Arbeit erschaffen, in denen KI-Systeme Fähigkeiten lernen können. Sein neues Startup Core Automation widmet sich diesem Ansatz.

Doch die Skepsis wird nicht von allen geteilt. Deepmind-Forscher Adam Brown verteidigte kürzlich das Potenzial der aktuellen LLM-Architektur. Er vergleicht den Mechanismus der Token-Vorhersage mit biologischer Evolution. Aus einer einfachen Regel entstehe durch massive Skalierung eine emergente Komplexität, die Menschen als Verständnis wahrnehmen. Diese Komplexität könnte sogar zu Bewusstsein führen.

KI-News ohne Hype – von Menschen kuratiert

Mit dem THE‑DECODER‑Abo liest du werbefrei und wirst Teil unserer Community: Diskutiere im Kommentarsystem, erhalte unseren wöchentlichen KI‑Newsletter, 6× im Jahr den "KI Radar"‑Frontier‑Newsletter mit den neuesten Entwicklungen aus der Spitze der KI‑Forschung, bis zu 25 % Rabatt auf KI Pro‑Events und Zugriff auf das komplette Archiv der letzten zehn Jahre.