Inhalt
summary Zusammenfassung

Yann LeCun, leitender KI-Forscher bei Meta, greift den Anthropic-CEO Dario Amodei auf Threads scharf an. Seine Aussagen verdeutlichen die ideologischen Bruchlinien innerhalb der KI-Community, insbesondere beim Thema allgemeine künstliche Intelligenz.

Anzeige

Auf die Frage eines Nutzers, ob Amodei ein "AI Doomer", ein "AI Hyper" oder beides sei, antwortete LeCun: "Er ist ein Doomer, aber er arbeitet weiterhin an 'AGI'."

Das sei laut LeCun nur auf zwei Arten zu erklären: "Entweder ist er intellektuell unehrlich und/oder moralisch korrupt."

Alternativ leide Amodei an einem "massiven Überlegenheitskomplex", bei dem er glaube, "nur er sei erleuchtet genug, um Zugang zu KI zu haben, während die ungebildeten Massen zu dumm oder unmoralisch seien, um ein so mächtiges Werkzeug zu nutzen". Tatsächlich sei Amodei "verwirrt über die Gefahren und die Macht heutiger KI-Systeme".

Anzeige
Anzeige
Threads-Screenshot: Yann LeCun nennt Anthropics-CEO Dario Amodei moralisch korrupten Doomer, der an AGI arbeitet.
In einem Threads-Beitrag kritisiert LeCun Dario Amodei als moralisch korrupten Doomer, da er an AGI arbeitet, obwohl er vor KI-Risiken warnt. | Bild: Screenshot via Threads

Tiefe Gräben in der KI-Entwicklung

LeCuns Aussagen sind Teil einer grundsätzlichen Auseinandersetzung über die Ausrichtung der KI-Entwicklung. Während Unternehmen wie Anthropic und OpenAI auf eine schnelle Kommerzialisierung immer leistungsfähigerer Large Language Models (LLMs) setzen – oft begleitet von dramatischer Rhetorik über vermeintlich existenzielle Risiken von KI-Systemen – hält LeCun diesen Ansatz für ungeeignet, menschenähnliche Intelligenz zu erreichen.

LLMs wie GPT-X oder Claude könnten zwar beeindruckende Texte generieren, hätten aber laut LeCun ein "sehr begrenztes Verständnis von Logik", verstünden "die physische Welt nicht", verfügten nicht über ein dauerhaftes Gedächtnis, könnten nicht rational denken und nicht hierarchisch planen. Zudem seien sie "von Natur aus unsicher", da sie nur dann überzeugend antworten könnten, wenn sie mit den richtigen Trainingsdaten versorgt würden.

"Wenn du ein Student bist, der daran interessiert ist, die nächste Generation von KI-Systemen zu bauen, dann arbeite nicht an LLMs", sagte LeCun in der Vergangenheit. Diese Technologie sei bereits von großen Unternehmen besetzt und führe nicht zu echter Intelligenz.

Stattdessen arbeitet LeCun mit seinem Team bei Meta an sogenannten Weltmodellen, die ein umfassendes Verständnis der Umwelt entwickeln sollen. In einer aktuellen Studie stellte das Meta-Forschungsteam V-JEPA vor – ein KI-Modell, das durch selbstüberwachtes Lernen an Videos ein intuitives Verständnis physikalischer Zusammenhänge entwickelt. Im Vergleich zu multimodalen LLMs wie Gemini oder Qwen zeigte V-JEPA ein deutlich besseres Physikverständnis, obwohl es mit relativ wenig Trainingsmaterial auskam.

Anzeige
Anzeige
Community beitreten
Kommt in die DECODER-Community bei Discord,Reddit, Twitter und Co. - wir freuen uns auf euch!
Unterstütze unsere unabhängige, frei zugängliche Berichterstattung. Jeder Betrag hilft und sichert unsere Zukunft. Jetzt unterstützen:
Banküberweisung
Zusammenfassung
  • Yann LeCun, leitender KI-Forscher bei Meta, wirft Anthropic-CEO Dario Amodei auf Threads intellektuelle Unehrlichkeit und moralische Korruption vor, da dieser trotz Warnungen vor KI-Risiken weiterhin an allgemeiner künstlicher Intelligenz (AGI) arbeitet.
  • LeCun kritisiert Anthropics und OpenAIs Herangehensweise, die einerseits vor existenziellen KI-Risiken warnt, gleichzeitig aber an der Entwicklung immer leistungsfähigerer KI-Systeme arbeitet. Er hält diesen Ansatz für widersprüchlich und die Warnungen vor KI-Gefahren durch LLMs für übertrieben.
  • Statt auf LLMs setzt LeCun bei Meta auf sogenannte Weltmodelle wie V-JEPA, die durch selbstüberwachtes Lernen ein besseres Verständnis physikalischer Zusammenhänge zeigen als multimodale LLMs, obwohl sie mit weniger Trainingsdaten auskommen.
Online-Journalist Matthias ist Gründer und Herausgeber von THE DECODER. Er ist davon überzeugt, dass Künstliche Intelligenz die Beziehung zwischen Mensch und Computer grundlegend verändern wird.
Community beitreten
Kommt in die DECODER-Community bei Discord,Reddit, Twitter und Co. - wir freuen uns auf euch!