Google Cloud kündigt Leistungssprung für KI-Hypercomputing mit TPU v5p und Blackwell an
Google hat auf seiner jährlichen Entwicklerkonferenz Next '24 Weiterentwicklungen seiner KI-Hypercomputerarchitektur vorgestellt. Im Mittelpunkt stehen neue leistungsoptimierte Hardware-Komponenten wie die Cloud TPU v5p und die kommenden Blackwell-GPUs von Nvidia.
Google Cloud kündigt auf der Next '24 eine Reihe von Verbesserungen seiner KI-Hypercomputing-Architektur an, darunter die allgemeine Verfügbarkeit der TPU v5p und die Integration der neuesten Nvidia Blackwell-Plattform. Diese Neuerungen sollen das Training und die Bereitstellung anspruchsvoller KI-Modelle beschleunigen.
Die Cloud TPU v5p ist ab sofort allgemein verfügbar und stellt laut Google die bisher leistungsstärkste und skalierbarste TPU-Generation dar. Ein einzelner TPU v5p Pod enthält 8.960 synchron arbeitende Chips - mehr als doppelt so viele wie ein TPU v4 Pod. Darüber hinaus bietet die TPU v5p auf Chipebene mehr als doppelt so viele FLOPS und dreimal so viel Hochgeschwindigkeitsspeicher wie die Vorgängergeneration.
Damit soll sich der TPU v5p besonders für das Training großer KI-Modelle eignen. Um dies zu erleichtern, unterstützt die Google Kubernetes Engine (GKE) nun TPU v5p-Cluster und Multi-Host-Serving umfassend. Letzteres ermöglicht es laut Google, eine Gruppe von Modell-Servern, die über mehrere Hosts verteilt sind, als eine einzige logische Einheit zu verwalten und zu überwachen.
Google bringt Blackwell 2025
Auch im GPU-Bereich erweitert Google Cloud sein Angebot. So wird ab nächstem Monat eine neue Nvidia H100 GPU-basierte A3 Mega Instanz allgemein verfügbar sein. Sie soll doppelt so viel GPU-zu-GPU-Netzwerkbandbreite bieten wie die A3.
Darüber hinaus hat Google angekündigt, dass die neue Nvidia Blackwell Plattform in zwei Konfigurationen in die KI-Hypercomputing-Architektur integriert wird. Google Cloud Kunden erhalten damit im Frühjahr 2025 Zugang zu Nvidias HGX B200 und GB200 NVL72 Systemen. Die neuen HGX B200 Systeme sind für die derzeit anspruchsvollsten KI-, Datenanalyse- und HPC-Workloads ausgelegt. Die flüssigkeitsgekühlten GB200 NVL72 Systeme gehen noch einen Schritt weiter und sind für Echtzeit-Sprachmodell-Inferenz und Training von Modellen im Billionen-Parameter-Maßstab ausgelegt.
KI-News ohne Hype – von Menschen kuratiert
Mit dem THE‑DECODER‑Abo liest du werbefrei und wirst Teil unserer Community: Diskutiere im Kommentarsystem, erhalte unseren wöchentlichen KI‑Newsletter, 6× im Jahr den „KI Radar“‑Frontier‑Newsletter mit den neuesten Entwicklungen aus der Spitze der KI‑Forschung, bis zu 25 % Rabatt auf KI Pro‑Events und Zugriff auf das komplette Archiv der letzten zehn Jahre.
Jetzt abonnierenKI-News ohne Hype
Von Menschen kuratiert.
- Mehr als 20 Prozent Launch-Rabatt.
- Lesen ohne Ablenkung – keine Google-Werbebanner.
- Zugang zum Kommentarsystem und Austausch mit der Community.
- Wöchentlicher KI-Newsletter.
- 6× jährlich: „KI Radar“ – Deep-Dives zu den wichtigsten KI-Themen.
- Bis zu 25 % Rabatt auf KI Pro Online-Events.
- Zugang zum kompletten Archiv der letzten zehn Jahre.
- Die neuesten KI‑Infos von The Decoder – klar und auf den Punkt.