NVIDIA H200 SXM 141 GB vs NVIDIA RTX PRO 6000 Blackwell Max-Q

Сравнение NVIDIA H200 SXM 141 GB с 141 Гб HBM3e и 16 896 ядрами против NVIDIA RTX PRO 6000 Blackwell Max-Q с 96 Гб GDDR7 и 24 064 ядрами.

Загружаемся...

Оценка производительности

NVIDIA H200 SXM 141 GB опережает NVIDIA RTX PRO 6000 Blackwell Max-Q на 26,27% в суммарном рейтинге производительности GPU ARK

A100 A100
H200 H200
MI325X MI325X

NVIDIA H200 SXM 141 GB

67,4

NVIDIA H200 SXM 141 GB

67,4
RX 7900 XTX RX 7900 XTX
MI250 MI250
Instinct MI300X Instinct MI300X

NVIDIA RTX PRO 6000 Blackwell Max-Q

53,4

NVIDIA RTX PRO 6000 Blackwell Max-Q

53,4

Содержание:

Память ML-производительность Вычислительная мощность Архитектура и совместимость Программная поддержка ML Частоты и производительность Энергопотребление Рендеринг Бенчмарки Дополнительно

Память

Объем памяти

🔥 +47% 141 ГБ
96 ГБ

Тип памяти

HBM3e GDDR7

Пропускная способность памяти

🔥 +173% 4.89 TB/s
1.79 TB/s

Ширина шины памяти

6 144 бит 512 бит

ML-производительность

FP16 (half)

🔥 +143% 267,6 TFLOPS
110,1 TFLOPS

BF16

Нет Нет

TF32

Нет Нет

Вычислительная мощность

FP32 (float)

66,91 TFLOPS
🔥 +65% 110,1 TFLOPS

FP64 (double)

🔥 +1 844% 33,45 TFLOPS
1,721 TFLOPS

CUDA ядра

16 896
🔥 +42% 24 064

RT ядра

Нет
🔥 188

Архитектура и совместимость

Архитектура GPU

Hopper Blackwell 2.0

SM (Streaming Multiprocessor)

132
🔥 +42% 188

PCIe версия

PCIe 5.0 x16 PCIe 5.0 x16

Программная поддержка ML

CUDA версия

9.0
🔥 12.0

Частоты и производительность

Base Clock

1 500
🔥 +6% 1 590

Boost Clock

1 980
🔥 +16% 2 288

Memory Clock

1 593
🔥 +10% 1 750

Энергопотребление

TDP/TGP

700 W
🔥 -57% 300 W

Рекомендуемый БП

1100 W
🔥 -36% 700 W

Разъём питания

8-pin EPS 1x 16-pin

Рендеринг

Текстурные блоки (TMU)

528
🔥 +42% 752

ROP

Нет
🔥 188

L2 Cache

🔥 50 MB
128 MB

Бенчмарки

MLPerf, llama2-70b-99.9 (UNSET)

3 534 tokens/s

MLPerf, llama2-70b-99.9 (fp16)

3 553 tokens/s

MLPerf, llama2-70b-99.9 (fp8)

2 444 tokens/s

MLPerf, llama3.1-405b (fp16)

40.8 tokens/s

MLPerf, llama3.1-405b (fp8)

25.3 tokens/s

MLPerf, llama3.1-8b (fp8)

5 161 tokens/s

llama.cpp, llama 7B Q4_0

270.0 tokens/s

Geekbench AI, FP16

58 178 points

Geekbench AI, INT8

29 188 points

Geekbench AI, FP32

39 339 points

MLPerf, deepseek-r1 (fp8)

1 113 tokens/s

MLPerf, mixtral-8x7b (fp8)

7 132 tokens/s

Дополнительно

Слоты

🔥 SXM Module
Dual-slot

Дата выпуска

18 ноября 2024 г. 18 марта 2025 г.

Дисплейные порты

No outputs
4x DisplayPort 2.1b

Арендовать дешевле, чем покупать