Anzeige
Skip to content

Metas KI-Chef LeCun jüngste Kommentare zeigen tiefe Gräben in der KI-Entwicklung

Image description
Meta

Yann LeCun, leitender KI-Forscher bei Meta, greift den Anthropic-CEO Dario Amodei auf Threads scharf an. Seine Aussagen verdeutlichen die ideologischen Bruchlinien innerhalb der KI-Community, insbesondere beim Thema allgemeine künstliche Intelligenz.

Auf die Frage eines Nutzers, ob Amodei ein "AI Doomer", ein "AI Hyper" oder beides sei, antwortete LeCun: "Er ist ein Doomer, aber er arbeitet weiterhin an 'AGI'."

Das sei laut LeCun nur auf zwei Arten zu erklären: "Entweder ist er intellektuell unehrlich und/oder moralisch korrupt."

Alternativ leide Amodei an einem "massiven Überlegenheitskomplex", bei dem er glaube, "nur er sei erleuchtet genug, um Zugang zu KI zu haben, während die ungebildeten Massen zu dumm oder unmoralisch seien, um ein so mächtiges Werkzeug zu nutzen". Tatsächlich sei Amodei "verwirrt über die Gefahren und die Macht heutiger KI-Systeme".

Anzeige
DEC_D_Incontent-1

Threads-Screenshot: Yann LeCun nennt Anthropics-CEO Dario Amodei moralisch korrupten Doomer, der an AGI arbeitet.
In einem Threads-Beitrag kritisiert LeCun Dario Amodei als moralisch korrupten Doomer, da er an AGI arbeitet, obwohl er vor KI-Risiken warnt. | Bild: Screenshot via Threads

Tiefe Gräben in der KI-Entwicklung

LeCuns Aussagen sind Teil einer grundsätzlichen Auseinandersetzung über die Ausrichtung der KI-Entwicklung. Während Unternehmen wie Anthropic und OpenAI auf eine schnelle Kommerzialisierung immer leistungsfähigerer Large Language Models (LLMs) setzen – oft begleitet von dramatischer Rhetorik über vermeintlich existenzielle Risiken von KI-Systemen – hält LeCun diesen Ansatz für ungeeignet, menschenähnliche Intelligenz zu erreichen.

LLMs wie GPT-X oder Claude könnten zwar beeindruckende Texte generieren, hätten aber laut LeCun ein "sehr begrenztes Verständnis von Logik", verstünden "die physische Welt nicht", verfügten nicht über ein dauerhaftes Gedächtnis, könnten nicht rational denken und nicht hierarchisch planen. Zudem seien sie "von Natur aus unsicher", da sie nur dann überzeugend antworten könnten, wenn sie mit den richtigen Trainingsdaten versorgt würden.

"Wenn du ein Student bist, der daran interessiert ist, die nächste Generation von KI-Systemen zu bauen, dann arbeite nicht an LLMs", sagte LeCun in der Vergangenheit. Diese Technologie sei bereits von großen Unternehmen besetzt und führe nicht zu echter Intelligenz.

Stattdessen arbeitet LeCun mit seinem Team bei Meta an sogenannten Weltmodellen, die ein umfassendes Verständnis der Umwelt entwickeln sollen. In einer aktuellen Studie stellte das Meta-Forschungsteam V-JEPA vor – ein KI-Modell, das durch selbstüberwachtes Lernen an Videos ein intuitives Verständnis physikalischer Zusammenhänge entwickelt. Im Vergleich zu multimodalen LLMs wie Gemini oder Qwen zeigte V-JEPA ein deutlich besseres Physikverständnis, obwohl es mit relativ wenig Trainingsmaterial auskam.

Anzeige
DEC_D_Incontent-2

KI-News ohne Hype – von Menschen kuratiert

Mit dem THE‑DECODER‑Abo liest du werbefrei und wirst Teil unserer Community: Diskutiere im Kommentarsystem, erhalte unseren wöchentlichen KI‑Newsletter, 6× im Jahr den „KI Radar“‑Frontier‑Newsletter mit den neuesten Entwicklungen aus der Spitze der KI‑Forschung, bis zu 25 % Rabatt auf KI Pro‑Events und Zugriff auf das komplette Archiv der letzten zehn Jahre.

KI-News ohne Hype
Von Menschen kuratiert.

  • Mehr als 20 Prozent Launch-Rabatt.
  • Lesen ohne Ablenkung – keine Google-Werbebanner.
  • Zugang zum Kommentarsystem und Austausch mit der Community.
  • Wöchentlicher KI-Newsletter.
  • 6× jährlich: „KI Radar“ – Deep-Dives zu den wichtigsten KI-Themen.
  • Bis zu 25 % Rabatt auf KI Pro Online-Events.
  • Zugang zum kompletten Archiv der letzten zehn Jahre.
  • Die neuesten KI‑Infos von The Decoder – klar und auf den Punkt.
The Decoder abonnieren