Anzeige
Skip to content

Yann LeCun will den AGI-Begriff abschaffen und durch "Superhuman Adaptable Intelligence" ersetzen

Image description
Nano Banana Pro prompted by THE DECODER

Ein neues Paper von Forschern der Columbia University und NYU, darunter Yann LeCun, argumentiert, dass AGI ein fehlerhaftes Konzept ist. Menschliche Intelligenz sei nicht allgemein, sondern spezialisiert. Stattdessen schlagen sie den Begriff der "Superhuman Adaptable Intelligence" vor.

Der Begriff AGI ist laut einem neuen Paper von Forschern der Columbia University, NYU und des Start-ups Distyl mehr Hindernis als Orientierung in der KI-Debatte. Mitautor ist der prominente KI-Forscher Yann LeCun.

Die zentrale These: Menschliche Intelligenz ist nicht allgemein, sondern durch Evolution hochspezialisiert. Wir nehmen unsere eigenen blinden Flecken schlicht nicht wahr. Die Forscher illustrieren das am Beispiel von Schach-Weltmeister Magnus Carlsen: Gemessen an Computern sei er objektiv schlecht im Schach. Unsere Wahrnehmung seiner Fähigkeiten spiegle lediglich die Grenzen menschlicher Leistungsfähigkeit wider.

Bestehende AGI-Definitionen scheitern an ihren eigenen Ansprüchen

Das Paper analysiert gängige AGI-Definitionen systematisch und kommt zum Schluss, dass keine die eigenen Kriterien erfüllt. Definitionen, die "echte" Allgemeinheit beanspruchen, scheitern am No-Free-Lunch-Theorem: Kein einzelner Algorithmus kann bei allen Problemen optimal sein. Definitionen, die sich auf menschliche Fähigkeiten beschränken, seien per Definition nicht allgemein. Andere, etwa von OpenAI oder Demis Hassabis, seien entweder nicht messbar oder intern widersprüchlich.

Anzeige
DEC_D_Incontent-1

Semantische Karte: AGI-Definitionen nach Learn-vs-Do-Achse und Aufgabenreichweite von universell bis menschzentriert.
Karte ordnet AGI-Definitionen entlang von Adaptabilität (LEARN) und Leistungsfähigkeit (DO) sowie Aufgabenreichweite von universell bis ökonomisch. Sie verdeutlicht die unterschiedlichen Schwerpunktsetzungen von Forschung und Industrie bei der Definition von AGI. | Bild: Goldfeder et al.

Zum Vorwurf, ihr Verständnis von AGI würde allgemeine mit universeller Intelligenz verwechseln, betonen sie: Selbst wenn man die theoretische Turing-Vollständigkeit des Gehirns zugestehe, decke es unter realen Einschränkungen wie endlichem Gedächtnis, endlicher Zeit und Aufmerksamkeit nur einen "winzigen Bruchteil" möglicher Probleme ab.

"Die KI, die Proteine faltet, sollte nicht die Wäsche falten"

Statt AGI schlagen die Autoren "Superhuman Adaptable Intelligence" (SAI) vor: eine Intelligenz, die lernen kann, Menschen bei jeder wichtigen Aufgabe zu übertreffen, und die auch Aufgaben außerhalb des menschlichen Bereichs bewältigen kann. Entscheidend sei aber nicht eine Checkliste von Fähigkeiten, sondern die Geschwindigkeit der Anpassung an neue Aufgaben.

Technisch deute SAI auf selbstüberwachtes Lernen und Weltmodelle als vielversprechende Wege hin, nicht auf autoregressive Sprachmodelle. Deren Fehler würden sich mit jeder weiteren Vorhersage vervielfachen und so immer unzuverlässiger werden, so die Forscher. Die aktuelle Monokultur von GPT-artigen Architekturen bremse den Fortschritt.

KI-News ohne Hype – von Menschen kuratiert

Mit dem THE‑DECODER‑Abo liest du werbefrei und wirst Teil unserer Community: Diskutiere im Kommentarsystem, erhalte unseren wöchentlichen KI‑Newsletter, 6× im Jahr den „KI Radar"‑Frontier‑Newsletter mit den neuesten Entwicklungen aus der Spitze der KI‑Forschung, bis zu 25 % Rabatt auf KI Pro‑Events und Zugriff auf das komplette Archiv der letzten zehn Jahre.

KI-News ohne Hype
Von Menschen kuratiert.

  • Mehr als 20 Prozent Launch-Rabatt.
  • Lesen ohne Ablenkung – keine Google-Werbebanner.
  • Zugang zum Kommentarsystem und Austausch mit der Community.
  • Wöchentlicher KI-Newsletter.
  • 6× jährlich: „KI Radar“ – Deep-Dives zu den wichtigsten KI-Themen.
  • Bis zu 25 % Rabatt auf KI Pro Online-Events.
  • Zugang zum kompletten Archiv der letzten zehn Jahre.
  • Die neuesten KI‑Infos von The Decoder – klar und auf den Punkt.
The Decoder abonnieren