Skip to content

Google Cloud kündigt Leistungssprung für KI-Hypercomputing mit TPU v5p und Blackwell an

Image description
Midjourney prompted by THE DECODER

Kurz & Knapp

  • Google hat auf seiner Entwicklerkonferenz Next '24 die allgemeine Verfügbarkeit der leistungsstarken TPU v5p sowie die Integration der kommenden Nvidia Blackwell-Plattform angekündigt, um das Training und die Bereitstellung anspruchsvoller KI-Modelle zu beschleunigen.
  • Ein einzelner TPU v5p Pod enthält 8.960 synchron arbeitende Chips, doppelt so viele wie die Vorgängergeneration TPU v4. Zudem bietet die TPU v5p auf Chipebene mehr als doppelt so viele FLOPS und dreimal so viel Hochgeschwindigkeitsspeicher wie die TPU v4.
  • Ab dem Frühjahr 2025 erhalten Google Cloud Kunden Zugang zu Nvidias HGX B200 und GB200 NVL72 Systemen der neuen Blackwell-Plattform. Diese Systeme sind für die derzeit anspruchsvollsten KI-, Datenanalyse- und HPC-Workloads sowie für Echtzeit-Sprachmodell-Inferenz und das Training von Billionen-Parameter-Modellen ausgelegt.

Google hat auf seiner jährlichen Entwicklerkonferenz Next '24 Weiterentwicklungen seiner KI-Hypercomputerarchitektur vorgestellt. Im Mittelpunkt stehen neue leistungsoptimierte Hardware-Komponenten wie die Cloud TPU v5p und die kommenden Blackwell-GPUs von Nvidia.

Google Cloud kündigt auf der Next '24 eine Reihe von Verbesserungen seiner KI-Hypercomputing-Architektur an, darunter die allgemeine Verfügbarkeit der TPU v5p und die Integration der neuesten Nvidia Blackwell-Plattform. Diese Neuerungen sollen das Training und die Bereitstellung anspruchsvoller KI-Modelle beschleunigen.

Die Cloud TPU v5p ist ab sofort allgemein verfügbar und stellt laut Google die bisher leistungsstärkste und skalierbarste TPU-Generation dar. Ein einzelner TPU v5p Pod enthält 8.960 synchron arbeitende Chips - mehr als doppelt so viele wie ein TPU v4 Pod. Darüber hinaus bietet die TPU v5p auf Chipebene mehr als doppelt so viele FLOPS und dreimal so viel Hochgeschwindigkeitsspeicher wie die Vorgängergeneration.

Damit soll sich der TPU v5p besonders für das Training großer KI-Modelle eignen. Um dies zu erleichtern, unterstützt die Google Kubernetes Engine (GKE) nun TPU v5p-Cluster und Multi-Host-Serving umfassend. Letzteres ermöglicht es laut Google, eine Gruppe von Modell-Servern, die über mehrere Hosts verteilt sind, als eine einzige logische Einheit zu verwalten und zu überwachen.

Google bringt Blackwell 2025

Auch im GPU-Bereich erweitert Google Cloud sein Angebot. So wird ab nächstem Monat eine neue Nvidia H100 GPU-basierte A3 Mega Instanz allgemein verfügbar sein. Sie soll doppelt so viel GPU-zu-GPU-Netzwerkbandbreite bieten wie die A3.

Darüber hinaus hat Google angekündigt, dass die neue Nvidia Blackwell Plattform in zwei Konfigurationen in die KI-Hypercomputing-Architektur integriert wird. Google Cloud Kunden erhalten damit im Frühjahr 2025 Zugang zu Nvidias HGX B200 und GB200 NVL72 Systemen. Die neuen HGX B200 Systeme sind für die derzeit anspruchsvollsten KI-, Datenanalyse- und HPC-Workloads ausgelegt. Die flüssigkeitsgekühlten GB200 NVL72 Systeme gehen noch einen Schritt weiter und sind für Echtzeit-Sprachmodell-Inferenz und Training von Modellen im Billionen-Parameter-Maßstab ausgelegt.

Source: Google 1 Google 2

KI-News ohne Hype
Von Menschen kuratiert.

  • Mehr als 20 Prozent Launch-Rabatt.
  • Lesen ohne Ablenkung – keine Google-Werbebanner.
  • Zugang zum Kommentarsystem und Austausch mit der Community.
  • Wöchentlicher KI-Newsletter.
  • 6× jährlich: „KI Radar“ – Deep-Dives zu den wichtigsten KI-Themen.
  • Bis zu 25 % Rabatt auf KI Pro Online-Events.
  • Zugang zum kompletten Archiv der letzten zehn Jahre.
  • Die neuesten KI‑Infos von The Decoder – klar und auf den Punkt.
The Decoder abonnieren