Anzeige
Skip to content

Neue Chip-Analyse skizziert, wie Googles KI-Chips Nvidia Konkurrenz machen

Image description
Nano Bana Pro prompted by THE DECODER

Kurz & Knapp

  • Google verkauft seine neuen TPUv7-Chips erstmals gezielt an andere Unternehmen und tritt damit direkt gegen Nvidia an.
  • Ein Großkunde ist das KI-Start-up Anthropic, das bis zu eine Million TPUs einsetzen will. Die Verfügbarkeit dieser Alternativen hat die Preise für KI-Rechenleistung spürbar gesenkt.
  • Sollte Nvidia mit der nächsten „Rubin“-Generation planmäßig liefern, könnte Googles aktueller Kostenvorteil wieder schwinden.

Google wandelt sich vom internen Chip-Nutzer zum Händler und fordert Nvidia heraus. Eine Analyse zeigt, dass allein die Existenz der neuen TPUs die Preise für KI-Rechenleistung massiv drückt.

Lange Zeit nutzte Google seine "Tensor Processing Units" (TPUs) fast ausschließlich für eigene KI-Modelle. Doch mit der neuen Generation TPUv7 "Ironwood" ändert sich die Strategie grundlegend. Laut einer Analyse der Chip-Experten von SemiAnalysis verkauft Google seine Chips nun aggressiv an Dritte und positioniert sich damit als direkter Konkurrent von Nvidia.

Prominentester Kunde ist das KI-Start-up Anthropic. Der Analyse zufolge umfasst der Deal rund eine Million TPUs, teils als direkter Hardware-Kauf, teils als Cloud-Miete über die Google Cloud Platform (GCP). Die Leistungsaufnahme dieser Infrastruktur soll mehr als ein Gigawatt betragen.

Die Auswirkungen auf den Markt sind bereits spürbar. Laut SemiAnalysis konnte OpenAI allein durch die glaubhafte Drohung, auf TPUs oder Alternativen zu wechseln, rund 30 Prozent Rabatt auf seine Nvidia-Flotte aushandeln. "Je mehr TPUs ihr kauft, desto mehr Nvidia-Investitionsausgaben spart ihr", schreiben die Analysten Dylan Patel, Myron Xie und Daniel Nishball in ironischer Anspielung auf den legendären Satz von Nvidia-CEO Jensen Huang.

Anzeige
DEC_D_Incontent-1

TPUs etablieren sich als GPU-Alternative

Dass TPUs keine zweitklassige Alternative mehr sind, zeigt der Einsatz in der Praxis: Zwei der derzeit leistungsfähigsten KI-Modelle, Googles Gemini 3 und Anthropics Claude 4.5 Opus, nutzen überwiegend Google TPUs und Amazons Trainium-Chips. Gemini 3 wurde vollständig auf TPUs trainiert.

Technisch schließt die TPUv7 "Ironwood" laut SemiAnalysis fast vollständig zu Nvidias Blackwell-Generation auf, was theoretische Rechenleistung (FLOPs) und Speicherbandbreite betrifft. Der entscheidende Vorteil liegt jedoch in den Kosten.

Für Google liegen die Gesamtbetriebskosten (TCO) pro Chip rund 44 Prozent niedriger als bei einem vergleichbaren Nvidia-GB200-System. Selbst für externe Kunden wie Anthropic, an die Google die Chips mit Marge weiterverkauft, könnten die Kosten pro effektiv genutzter Recheneinheit laut dem Modell der Analysten 30 bis 50 Prozent unter denen von Nvidia-Systemen liegen.

Das gilt besonders für Teams, die ihre Software gut optimieren. Googles TPU‑System kann bis zu 9.216 Chips in einem einzigen, dicht vernetzten Verbund koppeln. Dadurch lassen sich sehr große KI‑Trainings einfacher verteilen als bei üblichen Nvidia-Systemen, die meist 64 bis 72 Chips eng zusammenschalten.

Anzeige
DEC_D_Incontent-2

Angriff auf das CUDA-Monopol

Ein Hindernis für die Verbreitung von TPUs war bisher die Software. Nvidias CUDA-Plattform gilt als Standard. Google investiert nun massiv, um diese Hürde abzubauen. Laut dem Bericht arbeitet der Konzern an einer nativen Unterstützung für das beliebte Framework PyTorch sowie an der Integration in Inferenz-Bibliotheken wie vLLM.

Ziel ist es, TPUs als Alternative nutzbar zu machen, ohne dass Entwickler ihre gesamte Werkzeugkette umstellen müssen. Allerdings bleibt der Kern des TPU-Software-Stacks (XLA-Compiler) proprietär, was SemiAnalysis als verpasste Chance für eine schnellere Adaption durch die Open-Source-Community wertet.

Um die physische Infrastruktur für die riesigen Mengen an Chips bereitzustellen, nutzt Google neue Finanzierungsmodelle. Der Konzern arbeitet mit "Neoclouds" wie Fluidstack und Krypto-Minern wie TeraWulf zusammen. Dabei fungiert Google oft als finanzieller Rückhalt ("Backstop"): Fällt der Betreiber aus, garantiert Google die Mietzahlungen. Dies ermöglicht den schnellen Umbau vorhandener Rechenzentren aus dem Krypto-Sektor für KI-Anwendungen.

Nvidias Antwort steht bevor – und könnte Google wieder abhängen

Angesichts der aktuellen Erfolge von Google steht Nvidia technologisch unter Druck. Als Antwort setzt die nächste Nvidia‑Generation ‚Vera Rubin‘ (voraussichtlich 2026/2027) auf aggressivere Designentscheidungen wie HBM4‑Speicher und extrem hohe Bandbreiten.

Googles geplante Antwort, die TPUv8, verfolgt laut SemiAnalysis eine zweigleisige Strategie: Sie soll in zwei Varianten erscheinen – eine Version entwickelt mit dem langjährigen Partner Broadcom (Codename "Sunfish") und eine weitere mit MediaTek (Codename "Zebrafish"). Doch trotz dieser Diversifizierung wirkt das Design im direkten Vergleich fast schon zaghaft. Das Projekt leidet laut den Analysten unter Verzögerungen und setzt auf eine konservativere Architektur, die weder TSMCs 2nm-Prozess noch HBM4 so aggressiv nutzt wie die Konkurrenz.

Das Risiko für den Suchmaschinenriesen ist hoch: Sollten Nvidias kurzfristige Leistungssteigerungen bei Rubin aufgehen, könnte der aktuelle Kostenvorteil der TPUs komplett verpuffen. SemiAnalysis warnt sogar vor einem Szenario, in dem Nvidias Rubin-Systeme ("Kyber Rack") selbst für Googles interne Workloads wirtschaftlicher wären als die eigene TPUv8.

"Google hat seine Karten gezeigt", schreibt SemiAnalysis. Der Konzern habe mit der TPUv7 stark vorgelegt und Nvidia preislich unter Druck gesetzt. Nun müsse Nvidia liefern. Gelingt dem Marktführer die fehlerfreie Exekution seiner Roadmap, bleibt er an der Spitze. Strauchelt Nvidia jedoch bei der Leistung oder dem Zeitplan von Rubin, könnte der Thron ernsthaft wackeln.

KI-News ohne Hype – von Menschen kuratiert

Mit dem THE‑DECODER‑Abo liest du werbefrei und wirst Teil unserer Community: Diskutiere im Kommentarsystem, erhalte unseren wöchentlichen KI‑Newsletter, 6× im Jahr den „KI Radar“‑Frontier‑Newsletter mit den neuesten Entwicklungen aus der Spitze der KI‑Forschung, bis zu 25 % Rabatt auf KI Pro‑Events und Zugriff auf das komplette Archiv der letzten zehn Jahre.

Quelle: SemiAnalysis