Inhalt
summary Zusammenfassung

Google hat auf seiner jährlichen Entwicklerkonferenz Next '24 Weiterentwicklungen seiner KI-Hypercomputerarchitektur vorgestellt. Im Mittelpunkt stehen neue leistungsoptimierte Hardware-Komponenten wie die Cloud TPU v5p und die kommenden Blackwell-GPUs von Nvidia.

Google Cloud kündigt auf der Next '24 eine Reihe von Verbesserungen seiner KI-Hypercomputing-Architektur an, darunter die allgemeine Verfügbarkeit der TPU v5p und die Integration der neuesten Nvidia Blackwell-Plattform. Diese Neuerungen sollen das Training und die Bereitstellung anspruchsvoller KI-Modelle beschleunigen.

Die Cloud TPU v5p ist ab sofort allgemein verfügbar und stellt laut Google die bisher leistungsstärkste und skalierbarste TPU-Generation dar. Ein einzelner TPU v5p Pod enthält 8.960 synchron arbeitende Chips - mehr als doppelt so viele wie ein TPU v4 Pod. Darüber hinaus bietet die TPU v5p auf Chipebene mehr als doppelt so viele FLOPS und dreimal so viel Hochgeschwindigkeitsspeicher wie die Vorgängergeneration.

Damit soll sich der TPU v5p besonders für das Training großer KI-Modelle eignen. Um dies zu erleichtern, unterstützt die Google Kubernetes Engine (GKE) nun TPU v5p-Cluster und Multi-Host-Serving umfassend. Letzteres ermöglicht es laut Google, eine Gruppe von Modell-Servern, die über mehrere Hosts verteilt sind, als eine einzige logische Einheit zu verwalten und zu überwachen.

Anzeige
Anzeige

Google bringt Blackwell 2025

Auch im GPU-Bereich erweitert Google Cloud sein Angebot. So wird ab nächstem Monat eine neue Nvidia H100 GPU-basierte A3 Mega Instanz allgemein verfügbar sein. Sie soll doppelt so viel GPU-zu-GPU-Netzwerkbandbreite bieten wie die A3.

Darüber hinaus hat Google angekündigt, dass die neue Nvidia Blackwell Plattform in zwei Konfigurationen in die KI-Hypercomputing-Architektur integriert wird. Google Cloud Kunden erhalten damit im Frühjahr 2025 Zugang zu Nvidias HGX B200 und GB200 NVL72 Systemen. Die neuen HGX B200 Systeme sind für die derzeit anspruchsvollsten KI-, Datenanalyse- und HPC-Workloads ausgelegt. Die flüssigkeitsgekühlten GB200 NVL72 Systeme gehen noch einen Schritt weiter und sind für Echtzeit-Sprachmodell-Inferenz und Training von Modellen im Billionen-Parameter-Maßstab ausgelegt.

Anzeige
Community beitreten
Kommt in die DECODER-Community bei Discord,Reddit, Twitter und Co. - wir freuen uns auf euch!
Anzeige
Community beitreten
Kommt in die DECODER-Community bei Discord,Reddit, Twitter und Co. - wir freuen uns auf euch!
Unterstütze unsere unabhängige, frei zugängliche Berichterstattung. Jeder Betrag hilft und sichert unsere Zukunft. Jetzt unterstützen:
Banküberweisung
Zusammenfassung
  • Google hat auf seiner Entwicklerkonferenz Next '24 die allgemeine Verfügbarkeit der leistungsstarken TPU v5p sowie die Integration der kommenden Nvidia Blackwell-Plattform angekündigt, um das Training und die Bereitstellung anspruchsvoller KI-Modelle zu beschleunigen.
  • Ein einzelner TPU v5p Pod enthält 8.960 synchron arbeitende Chips, doppelt so viele wie die Vorgängergeneration TPU v4. Zudem bietet die TPU v5p auf Chipebene mehr als doppelt so viele FLOPS und dreimal so viel Hochgeschwindigkeitsspeicher wie die TPU v4.
  • Ab dem Frühjahr 2025 erhalten Google Cloud Kunden Zugang zu Nvidias HGX B200 und GB200 NVL72 Systemen der neuen Blackwell-Plattform. Diese Systeme sind für die derzeit anspruchsvollsten KI-, Datenanalyse- und HPC-Workloads sowie für Echtzeit-Sprachmodell-Inferenz und das Training von Billionen-Parameter-Modellen ausgelegt.
Quellen
Max ist leitender Redakteur bei THE DECODER. Als studierter Philosoph beschäftigt er sich mit dem Bewusstsein, KI und der Frage, ob Maschinen wirklich denken können oder nur so tun als ob.
Community beitreten
Kommt in die DECODER-Community bei Discord,Reddit, Twitter und Co. - wir freuen uns auf euch!