Anzeige
Skip to content

Warum Nvidia 26 Milliarden US-Dollar in offene KI-Modelle steckt und was China damit zu tun hat

Image description
Nano Banana Pro prompted by THE DECODER

Kurz & Knapp

  • Nvidia plant laut einem Finanzbericht 26 Milliarden US-Dollar Investitionen in Open-Source-KI-Modelle über fünf Jahre und stellt mit Nemotron 3 Super sein bisher leistungsfähigstes offenes Modell vor.
  • Chinesische Anbieter wie Deepseek und Alibaba dominieren derzeit den Open-Source-Bereich, während US-Unternehmen wie Meta und OpenAI ihre offenen Angebote einschränken oder schwächer halten.
  • Nvidia könnte die offenen Modelle strategisch nutzen, um Entwickler im eigenen Hardware-Ökosystem zu halten und sich als westliche Alternative zu chinesischen Open-Weight-Modellen zu positionieren.

Nvidia will laut einem SEC-Finanzbericht 26 Milliarden Dollar in offene KI-Modelle investieren. Der Schritt ist auch eine strategische Antwort auf die wachsende Dominanz chinesischer Open-Source-Modelle und soll Entwickler im eigenen Hardware-Ökosystem halten.

Nvidia will in den nächsten fünf Jahren 26 Milliarden US-Dollar für die Entwicklung von Open-Source-KI-Modellen ausgeben. Das geht aus einem Finanzbericht bei der US-Börsenaufsicht SEC hervor. Führungskräfte bestätigten die Pläne gegenüber WIRED.

Parallel stellte das Unternehmen Nemotron 3 Super vor, sein bislang leistungsfähigstes offenes Modell mit 128 Milliarden Parametern. Auf der Benchmark-Suite Artificial Analysis Index liegt das Modell knapp vor OpenAIs GPT-OSS, in etwa auf dem Niveau von Anthropics Claude 4.5 Haiku, muss sich aber Konkurrenten wie dem chinesischen Qwen3.5 122B A10B geschlagen geben.

Für das Training nutzte Nvidia einige technische Neuerungen, die Reasoning-Fähigkeiten und Long-Context-Handling verbessern sollen. Es ist wie die kleineren Varianten ein hybrides Modell, das Transformer mit Mamba-Architektur verbindet.

Anzeige
DEC_D_Incontent-1

Chinesische Anbieter dominieren den Open-Source-Bereich

Der Vorstoß kommt zu einem Zeitpunkt, an dem sich die Kräfteverhältnisse bei offenen KI-Modellen verschieben. Meta hatte mit Llama vorgelegt, CEO Zuckerberg signalisierte jedoch kürzlich, künftige Modelle möglicherweise nicht mehr vollständig offen zu machen. OpenAIs GPT-OSS bleibt deutlich schwächer als die proprietären Angebote des Unternehmens. Anthropic bietet keine offenen Modelle.

Gleichzeitig stellen chinesische Anbieter wie Deepseek, Alibaba, Moonshot AI und Minimax nahezu all ihre Modellgewichte kostenlos zur Verfügung. Auch hier gab es kürzlich mit Kündigungen in Alibabas Qwen-Team erste Anzeichen eines Wandels. Doch chinesische Modelle bleiben weiterhin in vielen Anwendungsfällen die beste offene Alternative - auch wenn neue Benchmarks immer wieder zeigen, dass trotz scheinbarer Nähe zu den besten Modellen westlicher Anbieter in der Praxis oft doch größere Unterschiede bestehen, als das ältere Benchmarks, auf die alle Hersteller optimieren, suggerieren.

Eine breite Adoption dieser Modelle in der westlichen Industrie ist bisher nicht erfolgt, der Trend geht eher hin zu geschlossenen Modellen von Anbietern wie Anthropic oder OpenAI.

Offene Modelle sollen auch Nvidias eigene Hardware voranbringen

Im Januar 2025 hatte Deepseek mit einem effizienten Open-Source-Modell für Wirbel an der Börse gesorgt, da der bis dahin wahrgenommene Vorsprung westlicher KI-Labore und die dafür notwendige Hardware-Menge hinterfragt wurden. Der nächste Aufreger könnte bevorstehen: Ein neues Deepseek-Modell wurde Gerüchten zufolge ausschließlich auf Chips des chinesischen Herstellers Huawei trainiert, der unter US-Sanktionen steht. Sollte das zutreffen, könnten mehr Unternehmen und Forscher auf Huawei-Hardware umsteigen, insbesondere in China.

Anzeige
DEC_D_Incontent-2

Andere Berichte legen dagegen nahe, dass Deepseek auch über eine Reihe von unter Sanktion stehenden Nvidia-Blackwell-GPUs verfügt und weiterhin darauf trainiert. Auf Druck der chinesischen Regierung versucht Deepseek zwar schon länger, auf Huawei-Chips zu trainieren, doch laut Berichten vom vergangenen Jahr scheiterte das Vorhaben an technischen Problemen wie instabiler Leistung und einer unausgereiften Software-Toolchain. Gleichzeitig hat Nvidia nach Jahren strenger Sanktionen wieder die Erlaubnis erhalten, leistungsfähigere KI-Chips nach China zu exportieren. Das Interesse chinesischer Unternehmen ist groß, doch Chinas Führung will eine erneute Abhängigkeit verhindern.

Die Veröffentlichung eigener offener Modelle, die gezielt auf Nvidia-Hardware optimiert sind, schafft hier ein Gegengewicht und - sofern Nvidia wirklich konkurrenzfähige Modelle hervorbringt - eine Alternative für westliche Unternehmen. Wer Nemotron und verwandte Modelle nutzt, bleibt im Nvidia-Ökosystem. Dabei bedient Nvidia auch einen Markt, in dem die großen KI-Labore bisher wenig aktiv sind: Robotik und andere Edge-KI-Anwendungen.

Bryan Catanzaro, VP of Applied Deep Learning Research bei Nvidia, formuliert es gegenüber WIRED diplomatisch: "Wir sind ein amerikanisches Unternehmen, aber wir arbeiten mit Unternehmen auf der ganzen Welt zusammen. Es liegt in unserem Interesse, das Ökosystem vielfältig und stark zu machen, überall." Nvidia habe bereits ein 550-Milliarden-Parameter-Modell vortrainiert sowie spezialisierte Modelle für Robotik, Klimamodellierung und Proteinfaltung veröffentlicht.

Kari Briski, VP of Generative AI Software, verweist auf einen weiteren strategischen Aspekt: Die Modelle dienten auch dazu, Nvidias eigene Rechenzentren im Supercomputer-Maßstab zu testen und die Hardware-Roadmap weiterzuentwickeln.

KI-News ohne Hype – von Menschen kuratiert

Mit dem THE‑DECODER‑Abo liest du werbefrei und wirst Teil unserer Community: Diskutiere im Kommentarsystem, erhalte unseren wöchentlichen KI‑Newsletter, 6× im Jahr den „KI Radar"‑Frontier‑Newsletter mit den neuesten Entwicklungen aus der Spitze der KI‑Forschung, bis zu 25 % Rabatt auf KI Pro‑Events und Zugriff auf das komplette Archiv der letzten zehn Jahre.