Yann LeCun, leitender KI-Forscher bei Meta, greift den Anthropic-CEO Dario Amodei auf Threads scharf an. Seine Aussagen verdeutlichen die ideologischen Bruchlinien innerhalb der KI-Community, insbesondere beim Thema allgemeine künstliche Intelligenz.
Auf die Frage eines Nutzers, ob Amodei ein "AI Doomer", ein "AI Hyper" oder beides sei, antwortete LeCun: "Er ist ein Doomer, aber er arbeitet weiterhin an 'AGI'."
Das sei laut LeCun nur auf zwei Arten zu erklären: "Entweder ist er intellektuell unehrlich und/oder moralisch korrupt."
Alternativ leide Amodei an einem "massiven Überlegenheitskomplex", bei dem er glaube, "nur er sei erleuchtet genug, um Zugang zu KI zu haben, während die ungebildeten Massen zu dumm oder unmoralisch seien, um ein so mächtiges Werkzeug zu nutzen". Tatsächlich sei Amodei "verwirrt über die Gefahren und die Macht heutiger KI-Systeme".

Tiefe Gräben in der KI-Entwicklung
LeCuns Aussagen sind Teil einer grundsätzlichen Auseinandersetzung über die Ausrichtung der KI-Entwicklung. Während Unternehmen wie Anthropic und OpenAI auf eine schnelle Kommerzialisierung immer leistungsfähigerer Large Language Models (LLMs) setzen – oft begleitet von dramatischer Rhetorik über vermeintlich existenzielle Risiken von KI-Systemen – hält LeCun diesen Ansatz für ungeeignet, menschenähnliche Intelligenz zu erreichen.
LLMs wie GPT-X oder Claude könnten zwar beeindruckende Texte generieren, hätten aber laut LeCun ein "sehr begrenztes Verständnis von Logik", verstünden "die physische Welt nicht", verfügten nicht über ein dauerhaftes Gedächtnis, könnten nicht rational denken und nicht hierarchisch planen. Zudem seien sie "von Natur aus unsicher", da sie nur dann überzeugend antworten könnten, wenn sie mit den richtigen Trainingsdaten versorgt würden.
"Wenn du ein Student bist, der daran interessiert ist, die nächste Generation von KI-Systemen zu bauen, dann arbeite nicht an LLMs", sagte LeCun in der Vergangenheit. Diese Technologie sei bereits von großen Unternehmen besetzt und führe nicht zu echter Intelligenz.
Stattdessen arbeitet LeCun mit seinem Team bei Meta an sogenannten Weltmodellen, die ein umfassendes Verständnis der Umwelt entwickeln sollen. In einer aktuellen Studie stellte das Meta-Forschungsteam V-JEPA vor – ein KI-Modell, das durch selbstüberwachtes Lernen an Videos ein intuitives Verständnis physikalischer Zusammenhänge entwickelt. Im Vergleich zu multimodalen LLMs wie Gemini oder Qwen zeigte V-JEPA ein deutlich besseres Physikverständnis, obwohl es mit relativ wenig Trainingsmaterial auskam.