NVIDIA B100 vs NVIDIA RTX PRO 6000 Blackwell Server

Сравнение NVIDIA B100 с 96 Гб HBM3e и 16 896 ядрами против NVIDIA RTX PRO 6000 Blackwell Server с 96 Гб GDDR7 и 24 064 ядрами.

Загружаемся...

Оценка производительности

NVIDIA RTX PRO 6000 Blackwell Server опережает NVIDIA B100 на 1,57% в суммарном рейтинге производительности GPU ARK

A100 A100
H200 H200
MI325X MI325X

NVIDIA B100

56,6

NVIDIA B100

56,6
RX 7900 XTX RX 7900 XTX
MI250 MI250
Instinct MI300X Instinct MI300X

NVIDIA RTX PRO 6000 Blackwell Server

57,5

NVIDIA RTX PRO 6000 Blackwell Server

57,5

Экспертное сравнение

NVIDIA B100 обладает более высокой пропускной способностью (4.10 TB/s против 1.79 TB/s) и большей памятью (96 ГБ HBM3e против 96 ГБ GDDR7), что делает его предпочтительным для вычислений больших данных и машинного обучения. Однако его TDP (1000 Вт) выше, чем у RTX PRO 6000 Blackwell Server (600 Вт), что может влиять на энергоэффективность. RTX PRO 6000 Blackwell Server имеет более мощную архитектуру Blackwell 2.0, что обеспечивает лучшую производительность в одиночных вычислениях (126.0 TFLOPS против 62.08 TFLOPS) и более низкий TDP, что делает его подходящим для серверных задач с меньшими требованиями к энергопотреблению.

Содержание:

Память ML-производительность Вычислительная мощность Архитектура и совместимость Программная поддержка ML Частоты и производительность Энергопотребление Рендеринг Бенчмарки Дополнительно

Память

Объем памяти

96 ГБ ×2 (192 ГБ) 96 ГБ

Тип памяти

HBM3e GDDR7

Пропускная способность памяти

4.10 TB/s ×2 (8.2 TB/s)
🔥 1.79 TB/s

Ширина шины памяти

4 096 бит ×2 (8192 бит) 512 бит

ML-производительность

FP16 (half)

🔥 +97% 248,3 TFLOPS
126,0 TFLOPS

BF16

Нет Нет

TF32

Нет Нет

Вычислительная мощность

FP32 (float)

62,08 TFLOPS
🔥 +103% 126,0 TFLOPS

FP64 (double)

🔥 +1 477% 31,04 TFLOPS
1,968 TFLOPS

CUDA ядра

16 896 ×2 (33792)
🔥 +42% 24 064

RT ядра

Нет
🔥 188

Архитектура и совместимость

Архитектура GPU

Blackwell Blackwell 2.0

SM (Streaming Multiprocessor)

132
🔥 +42% 188

PCIe версия

PCIe 5.0 x16 PCIe 5.0 x16

Программная поддержка ML

CUDA версия

10.1
🔥 12.0

Частоты и производительность

Base Clock

🔥 +5% 1 665
1 590

Boost Clock

1 837
🔥 +42% 2 617

Memory Clock

🔥 +14% 2 000
1 750

Энергопотребление

TDP/TGP

1000 W
🔥 -40% 600 W

Рекомендуемый БП

1400 W
🔥 -29% 1000 W

Разъём питания

Нет 1x 16-pin

Рендеринг

Текстурные блоки (TMU)

528 ×2 (1056)
🔥 +42% 752

ROP

Нет
🔥 188

L2 Cache

🔥 50 MB
128 MB

Бенчмарки

MLPerf, llama2-70b-99.9 (fp4)

3 250 tokens/s

MLPerf, llama3.1-8b (fp4)

5 758 tokens/s

Geekbench AI, FP16

53 322 points

Geekbench AI, INT8

28 264 points

Geekbench AI, FP32

37 299 points

MLPerf, mixtral-8x7b (fp8)

3 767 tokens/s

Дополнительно

Слоты

🔥 SXM Module
Dual-slot

Дата выпуска

17 ноября 2024 г. 18 марта 2025 г.

Дисплейные порты

No outputs
4x DisplayPort 2.1b

Арендовать дешевле, чем покупать