Inhalt
summary Zusammenfassung

Mit seinen hocheffizienten KI-Modellen bringt das chinesische Open-Source-Unternehmen Deepseek die etablierten KI-Labore unter Druck. Meta-CEO Mark Zuckerberg kündigt massive Investitionen an.

Anzeige

Das chinesische KI-Start-up Deepseek zeigt, dass Spitzen-KI auch ohne Milliardenbudget möglich ist. Sein Sprachmodell Deepseek-V3 erreichte in unabhängigen Tests eine vergleichbare Leistung wie die weltweit führenden KI-Modelle - und das für nur 5,6 Millionen Dollar reine Trainingskosten.

Für das Training von Deepseek-V3 wurden laut Deepseek nur 2,78 Millionen GPU-Stunden benötigt. Zum Vergleich: Meta benötigte für sein kleineres Llama-3-Modell mit 405 Milliarden Parametern etwa elfmal so viele GPU-Stunden.

Kurz nach Deepseek-V3 erschien mit Deepseek-R1 ein Reasoning-Modell, das mit OpenAIs o1 mithalten kann. Ein solches Modell hat Meta bislang nicht einmal am Markt. Deepseeks Kosteneffizienz setzt die etablierten KI-Labore unter Druck.

Anzeige
Anzeige

Zuckerberg kündigt weitere Milliardeninvestitionen an

Jetzt positioniert sich Metas Führungsspitze. 2025 will Meta das führende KI-Assistenzmodell für mehr als eine Milliarde Menschen entwickeln, Llama 4 zum State-of-the-Art-Modell ausbauen und einen KI-Ingenieur schaffen, der zunehmend zur eigenen Forschung und Entwicklung beiträgt, schreibt Meta-CEO Mark Zuckerberg bei Facebook

Dafür baut Meta laut Zuckerberg ein riesiges Rechenzentrum mit mehr als zwei Gigawatt Leistung. Allein 2025 sollen rund ein Gigawatt Rechenleistung und über 1,3 Millionen GPUs in Betrieb gehen. Meta plant Investitionen von 60 bis 65 Milliarden Dollar und will seine KI-Teams deutlich vergrößern.

Screenshot eines Facebook-Posts von Meta-CEO Mark Zuckerberg. Größe des geplanten Meta-Rechenzentrums überlagert auf Manhattans Karte zeigt massive Ausmaße.
Die schiere Größe von Metas geplantem 2GW+ Rechenzentrum wird durch den Vergleich mit Manhattan deutlich. | Bild: via Facebook

Metas KI-Chefforscher Yann LeCun sieht in Deepseeks Erfolg keinen Beleg für eine Überlegenheit Chinas, sondern für die Stärke von Open Source. Deepseek habe von offener Forschung und Open Source profitiert und darauf aufbauend neue Ideen entwickelt. Bei der Veröffentlichung von Deepseek-V3 Ende 2024 bezeichnete LeCun das Modell als "exzellent".

Screenshot: Threads-Post von Yann LeCun über DeepSeeks KI-Entwicklungen und deren Einfluss auf den Markt
Metas KI-Chef Yann LeCun kommentiert auf Threads die Entwicklungen bei DeepSeek. Seine Reaktion unterstreicht die wachsende Bedeutung chinesischer KI-Unternehmen im globalen Wettbewerb. | Bild: via Threads

Gerüchte über Unruhe in Metas KI-Abteilung

Laut eines anonymen Beitrags auf der Plattform Teamblind, einem Forum für verifizierte Big-Tech-Mitarbeitende, herrscht bei Metas Generative-AI-Abteilung Alarmstimmung. Auslöser sei eben Deepseek-v3, das Metas unveröffentlichtes Llama-4-Modell in Benchmarks bereits überholt habe - und das zu einem Bruchteil der Kosten.

Meta-Ingenieure würden fieberhaft daran arbeiten, die Technologie zu analysieren und möglichst viel davon zu übernehmen. Das Management sei besorgt, die massiven Kosten der Generative-AI-Abteilung zu rechtfertigen, wenn ein "unbekanntes chinesisches Unternehmen mit einem Trainingsbudget von 5,5 Millionen Dollar" bessere Ergebnisse erzielt.

Empfehlung

Jeder einzelne "Leiter" der Abteilung verdiene mehr, als das gesamte Training von Deepseek-V3 gekostet habe. Noch beunruhigender für Meta sei das Reasoning-Modell Deepseek-R1. Er kritisiert, dass die KI-Abteilung von Meta eigentlich technisch fokussiert und klein sein sollte, stattdessen aber aufgebläht wurde, weil viele Mitarbeiter vom Zukunftsthema KI profitieren wollten. Der Beitrag stellt nur eine Einzelmeinung dar.

Screenshot eines Social Media Posts über Metas interne Reaktion auf DeepSeek's KI-Fortschritte und Kostendruck.
Ein anonymer interner Bericht offenbart die angeblich angespannte Situation bei Metas KI-Abteilung nach den Erfolgen von DeepSeek. | Bild: via Teamblind

Die Aussagen von Zuckerberg und LeCun, die fast zeitgleich veröffentlicht wurden, könnten eine indirekte Reaktion auf diesen Beitrag und die dadurch ausgelöste Diskussion in den sozialen Medien sein.

Anzeige
Anzeige
Community beitreten
Kommt in die DECODER-Community bei Discord,Reddit, Twitter und Co. - wir freuen uns auf euch!
Unterstütze unsere unabhängige, frei zugängliche Berichterstattung. Jeder Betrag hilft und sichert unsere Zukunft. Jetzt unterstützen:
Banküberweisung
Zusammenfassung
  • Ein anonymer Beitrag auf der Plattform Teamblind beschreibt Unruhe in Metas KI-Abteilung: Deepseek-V3 soll das unveröffentlichte Llama-4-Modell in Tests übertreffen. Ein einzelner Meta-Abteilungsleiter verdiene mehr als die gesamten Trainingskosten von Deepseek-V3.
  • Meta-CEO Mark Zuckerberg kündigt derweil weitere KI-Investitionen an: 2025 soll ein Rechenzentrum mit zwei Gigawatt Leistung und 1,3 Millionen GPUs entstehen. Das Unternehmen plant Ausgaben von 60 bis 65 Milliarden Dollar.
  • Metas KI-Chefforscher Yann LeCun sieht in Deepseeks Erfolg einen Beleg für die Stärke von Open Source. Das Unternehmen habe von offener Forschung profitiert und darauf aufbauend neue Ideen entwickelt.
Online-Journalist Matthias ist Gründer und Herausgeber von THE DECODER. Er ist davon überzeugt, dass Künstliche Intelligenz die Beziehung zwischen Mensch und Computer grundlegend verändern wird.
Community beitreten
Kommt in die DECODER-Community bei Discord,Reddit, Twitter und Co. - wir freuen uns auf euch!