Inhalt
newsletter Newsletter

Nvidia präsentiert Rekordergebnisse für KI-Inferenz im MLPerf Inference v4.1 Benchmark.

Anzeige

Die neue Blackwell-Architektur liefert bei Llama 2 70B bis zu viermal mehr Leistung pro GPU als die H100. Möglich wird der Sprung auch durch die Verwendung einer niedrigeren Genauigkeit: Nvidia nutzte für Blackwell erstmals die neue FP4-Präzision der Transformer Engine.

Laut des Unternehmens soll das jedoch keinen Einfluss auf die Ergebnisse haben. Die ebenfalls gezeigte H200 GPU mit HBM3e-Speicher erzielt bis zu 1,5-mal höhere Leistung als die H100.

Während Unternehmen noch auf Lieferungen der verschiedenen B100-Varianten warten, hat Nvidia bereits Nachfolger angekündigt: 2025 soll "Blackwell Ultra" (B200) folgen, 2026 "Rubin" (R100) und 2027 "Rubin Ultra".

Anzeige
Anzeige

Bereits verfügbar ist AMDs Konkurrenzprodukt MI300X. Die GPU wurde daher auch zum ersten Mal im MLPerf eingeführt. Dort konnte die Karte jedoch bisher nicht wirklich überzeugen, laut AMD liegt das primär an für den Benchmark wichtigen Softwareoptimierungen.

Nvidia dominiert den wichtigsten KI-Hardware-Benchmark seit Jahren

Im MLPerf Benchmark treten Hardwarehersteller und Dienstleister mit ihren KI-Systemen gegeneinander an. Der Test wird von MLCommons durchgeführt und zielt auf einen transparenten Vergleich verschiedener Chip-Architekturen und Systemvarianten ab. MLPerf veröffentlicht jährlich unterschiedliche Ergebnisse, einmal für das Training und einmal für die Inferenz von KI-Modellen.

Nvidia dominiert den Markt seit einigen Jahren, was sich auch in den Rekordergebnissen des GPU-Giganten widerspiegelt. Kein anderes Chip-Unternehmen konnte derart stark vom KI-Wirbel profitieren.

Unklar ist, ob immer mehr Rechenleistung und damit Skalierung dazu beitragen kann, grundlegende Probleme heutiger KI-Systeme zu lösen. Dazu gehört etwa "KI-Bullshit", bei denen Sprachmodelle überzeugend klingen, aber falsche Antworten generieren. Mit der bald verfügbaren Hardware können diese Fragen womöglich experimentell beantwortet werden.

Anzeige
Anzeige
Community beitreten
Kommt in die DECODER-Community bei Discord,Reddit, Twitter und Co. - wir freuen uns auf euch!
Unterstütze unsere unabhängige, frei zugängliche Berichterstattung. Jeder Betrag hilft und sichert unsere Zukunft. Jetzt unterstützen:
Banküberweisung
Quellen
Max ist leitender Redakteur bei THE DECODER. Als studierter Philosoph beschäftigt er sich mit dem Bewusstsein, KI und der Frage, ob Maschinen wirklich denken können oder nur so tun als ob.
Community beitreten
Kommt in die DECODER-Community bei Discord,Reddit, Twitter und Co. - wir freuen uns auf euch!