Metas KI-Chef LeCun jüngste Kommentare zeigen tiefe Gräben in der KI-Entwicklung
Kurz & Knapp
- Yann LeCun, leitender KI-Forscher bei Meta, wirft Anthropic-CEO Dario Amodei auf Threads intellektuelle Unehrlichkeit und moralische Korruption vor, da dieser trotz Warnungen vor KI-Risiken weiterhin an allgemeiner künstlicher Intelligenz (AGI) arbeitet.
- LeCun kritisiert Anthropics und OpenAIs Herangehensweise, die einerseits vor existenziellen KI-Risiken warnt, gleichzeitig aber an der Entwicklung immer leistungsfähigerer KI-Systeme arbeitet. Er hält diesen Ansatz für widersprüchlich und die Warnungen vor KI-Gefahren durch LLMs für übertrieben.
- Statt auf LLMs setzt LeCun bei Meta auf sogenannte Weltmodelle wie V-JEPA, die durch selbstüberwachtes Lernen ein besseres Verständnis physikalischer Zusammenhänge zeigen als multimodale LLMs, obwohl sie mit weniger Trainingsdaten auskommen.
Yann LeCun, leitender KI-Forscher bei Meta, greift den Anthropic-CEO Dario Amodei auf Threads scharf an. Seine Aussagen verdeutlichen die ideologischen Bruchlinien innerhalb der KI-Community, insbesondere beim Thema allgemeine künstliche Intelligenz.
Auf die Frage eines Nutzers, ob Amodei ein "AI Doomer", ein "AI Hyper" oder beides sei, antwortete LeCun: "Er ist ein Doomer, aber er arbeitet weiterhin an 'AGI'."
Das sei laut LeCun nur auf zwei Arten zu erklären: "Entweder ist er intellektuell unehrlich und/oder moralisch korrupt."
Alternativ leide Amodei an einem "massiven Überlegenheitskomplex", bei dem er glaube, "nur er sei erleuchtet genug, um Zugang zu KI zu haben, während die ungebildeten Massen zu dumm oder unmoralisch seien, um ein so mächtiges Werkzeug zu nutzen". Tatsächlich sei Amodei "verwirrt über die Gefahren und die Macht heutiger KI-Systeme".

Tiefe Gräben in der KI-Entwicklung
LeCuns Aussagen sind Teil einer grundsätzlichen Auseinandersetzung über die Ausrichtung der KI-Entwicklung. Während Unternehmen wie Anthropic und OpenAI auf eine schnelle Kommerzialisierung immer leistungsfähigerer Large Language Models (LLMs) setzen – oft begleitet von dramatischer Rhetorik über vermeintlich existenzielle Risiken von KI-Systemen – hält LeCun diesen Ansatz für ungeeignet, menschenähnliche Intelligenz zu erreichen.
LLMs wie GPT-X oder Claude könnten zwar beeindruckende Texte generieren, hätten aber laut LeCun ein "sehr begrenztes Verständnis von Logik", verstünden "die physische Welt nicht", verfügten nicht über ein dauerhaftes Gedächtnis, könnten nicht rational denken und nicht hierarchisch planen. Zudem seien sie "von Natur aus unsicher", da sie nur dann überzeugend antworten könnten, wenn sie mit den richtigen Trainingsdaten versorgt würden.
"Wenn du ein Student bist, der daran interessiert ist, die nächste Generation von KI-Systemen zu bauen, dann arbeite nicht an LLMs", sagte LeCun in der Vergangenheit. Diese Technologie sei bereits von großen Unternehmen besetzt und führe nicht zu echter Intelligenz.
Stattdessen arbeitet LeCun mit seinem Team bei Meta an sogenannten Weltmodellen, die ein umfassendes Verständnis der Umwelt entwickeln sollen. In einer aktuellen Studie stellte das Meta-Forschungsteam V-JEPA vor – ein KI-Modell, das durch selbstüberwachtes Lernen an Videos ein intuitives Verständnis physikalischer Zusammenhänge entwickelt. Im Vergleich zu multimodalen LLMs wie Gemini oder Qwen zeigte V-JEPA ein deutlich besseres Physikverständnis, obwohl es mit relativ wenig Trainingsmaterial auskam.
KI-News ohne Hype
Von Menschen kuratiert.
- Mehr als 20 Prozent Launch-Rabatt.
- Lesen ohne Ablenkung – keine Google-Werbebanner.
- Zugang zum Kommentarsystem und Austausch mit der Community.
- Wöchentlicher KI-Newsletter.
- 6× jährlich: „KI Radar“ – Deep-Dives zu den wichtigsten KI-Themen.
- Bis zu 25 % Rabatt auf KI Pro Online-Events.
- Zugang zum kompletten Archiv der letzten zehn Jahre.
- Die neuesten KI‑Infos von The Decoder – klar und auf den Punkt.