AMD Radeon HD 8370D IGP vs NVIDIA H200 SXM 141 GB

Сравнение AMD Radeon HD 8370D IGP и 128 ядрами против NVIDIA H200 SXM 141 GB с 141 Гб HBM3e и 16 896 ядрами.

Загружаемся...

Оценка производительности

A100 A100
H200 H200
MI325X MI325X

AMD Radeon HD 8370D IGP

AMD Radeon HD 8370D IGP

RX 7900 XTX RX 7900 XTX
MI250 MI250
Instinct MI300X Instinct MI300X

NVIDIA H200 SXM 141 GB

67,4

NVIDIA H200 SXM 141 GB

67,4

Содержание:

Память ML-производительность Вычислительная мощность Архитектура и совместимость Программная поддержка ML Частоты и производительность Энергопотребление Рендеринг Бенчмарки Дополнительно

Память

Объем памяти

Нет
🔥 141 ГБ

Тип памяти

System Shared HBM3e

Пропускная способность памяти

System Dependent
🔥 4.89 TB/s

Ширина шины памяти

Нет 6 144 бит

ML-производительность

FP16 (half)

Нет
🔥 267,6 TFLOPS

BF16

Нет Нет

TF32

Нет Нет

Вычислительная мощность

FP32 (float)

0,1946 TFLOPS
🔥 +34 283% 66,91 TFLOPS

FP64 (double)

Нет
🔥 33,45 TFLOPS

CUDA ядра

128
🔥 +13 100% 16 896

RT ядра

Нет Нет

Архитектура и совместимость

Архитектура GPU

TeraScale 3 Hopper

SM (Streaming Multiprocessor)

Нет
🔥 132

PCIe версия

IGP PCIe 5.0 x16

Программная поддержка ML

CUDA версия

Нет 9.0

Частоты и производительность

Base Clock

Нет
🔥 1 500

Boost Clock

Нет
🔥 1 980

Memory Clock

Нет
🔥 1 593

Энергопотребление

TDP/TGP

🔥 -91% 65 W
700 W

Рекомендуемый БП

Нет 1100 W

Разъём питания

Нет 8-pin EPS

Рендеринг

Текстурные блоки (TMU)

8
🔥 +6 500% 528

ROP

Нет Нет

L2 Cache

Нет
🔥 50 MB

Бенчмарки

MLPerf, llama2-70b-99.9 (UNSET)

3 534 tokens/s

MLPerf, llama2-70b-99.9 (fp16)

3 553 tokens/s

MLPerf, llama2-70b-99.9 (fp8)

2 444 tokens/s

MLPerf, llama3.1-405b (fp16)

40.8 tokens/s

MLPerf, llama3.1-405b (fp8)

25.3 tokens/s

MLPerf, llama3.1-8b (fp8)

5 161 tokens/s

Llama.cpp: Backend: AMD ROCm HIP - Model: GLM-4.7-Flash-IQ4_XS - Test: Prompt Processing 1024

1 080 Tokens Per Second

Llama.cpp: Backend: AMD ROCm HIP - Model: GLM-4.7-Flash-IQ4_XS - Test: Prompt Processing 2048

964.38 Tokens Per Second

Llama.cpp: Backend: AMD ROCm HIP - Model: GLM-4.7-Flash-IQ4_XS - Test: Prompt Processing 512

1 139 Tokens Per Second

Llama.cpp: Backend: AMD ROCm HIP - Model: GLM-4.7-Flash-IQ4_XS - Test: Text Generation 128

59.44 Tokens Per Second

Llama.cpp: Backend: AMD ROCm HIP - Model: Llama-3.1-Tulu-3-8B-Q8_0 - Test: Text Generation 128

26.29 Tokens Per Second

Llama.cpp: Backend: AMD ROCm HIP - Model: MiniMax-M2.5-UD-TQ1_0 - Test: Prompt Processing 1024

236.95 Tokens Per Second

Llama.cpp: Backend: AMD ROCm HIP - Model: MiniMax-M2.5-UD-TQ1_0 - Test: Prompt Processing 2048

230.31 Tokens Per Second

Llama.cpp: Backend: AMD ROCm HIP - Model: MiniMax-M2.5-UD-TQ1_0 - Test: Prompt Processing 512

237.79 Tokens Per Second

Llama.cpp: Backend: AMD ROCm HIP - Model: MiniMax-M2.5-UD-TQ1_0 - Test: Text Generation 128

35.79 Tokens Per Second

Llama.cpp: Backend: AMD ROCm HIP - Model: Qwen3-8B-Q8_0 - Test: Prompt Processing 1024

1 338 Tokens Per Second

Llama.cpp: Backend: AMD ROCm HIP - Model: Qwen3-8B-Q8_0 - Test: Prompt Processing 2048

1 278 Tokens Per Second

Llama.cpp: Backend: AMD ROCm HIP - Model: Qwen3-8B-Q8_0 - Test: Prompt Processing 512

1 364 Tokens Per Second

Llama.cpp: Backend: AMD ROCm HIP - Model: Qwen3-8B-Q8_0 - Test: Text Generation 128

25.86 Tokens Per Second

Llama.cpp: Backend: AMD ROCm HIP - Model: gpt-oss-20b-Q8_0 - Test: Prompt Processing 1024

1 721 Tokens Per Second

Llama.cpp: Backend: AMD ROCm HIP - Model: gpt-oss-20b-Q8_0 - Test: Prompt Processing 2048

1 680 Tokens Per Second

Llama.cpp: Backend: AMD ROCm HIP - Model: gpt-oss-20b-Q8_0 - Test: Prompt Processing 512

1 726 Tokens Per Second

Llama.cpp: Backend: AMD ROCm HIP - Model: gpt-oss-20b-Q8_0 - Test: Text Generation 128

71.45 Tokens Per Second

Llama.cpp: Backend: Vulkan - Model: GLM-4.7-Flash-IQ4_XS - Test: Prompt Processing 1024

914.59 Tokens Per Second

Llama.cpp: Backend: Vulkan - Model: GLM-4.7-Flash-IQ4_XS - Test: Prompt Processing 2048

834.67 Tokens Per Second

Llama.cpp: Backend: Vulkan - Model: GLM-4.7-Flash-IQ4_XS - Test: Prompt Processing 512

953.45 Tokens Per Second

Llama.cpp: Backend: Vulkan - Model: GLM-4.7-Flash-IQ4_XS - Test: Text Generation 128

70.92 Tokens Per Second

Llama.cpp: Backend: Vulkan - Model: Llama-3.1-Tulu-3-8B-Q8_0 - Test: Prompt Processing 1024

1 100 Tokens Per Second

Llama.cpp: Backend: Vulkan - Model: Llama-3.1-Tulu-3-8B-Q8_0 - Test: Prompt Processing 2048

1 061 Tokens Per Second

Llama.cpp: Backend: Vulkan - Model: Llama-3.1-Tulu-3-8B-Q8_0 - Test: Prompt Processing 512

1 130 Tokens Per Second

Llama.cpp: Backend: Vulkan - Model: Llama-3.1-Tulu-3-8B-Q8_0 - Test: Text Generation 128

26.17 Tokens Per Second

Llama.cpp: Backend: Vulkan - Model: MiniMax-M2.5-UD-TQ1_0 - Test: Prompt Processing 1024

224.52 Tokens Per Second

Llama.cpp: Backend: Vulkan - Model: MiniMax-M2.5-UD-TQ1_0 - Test: Prompt Processing 2048

212.58 Tokens Per Second

Llama.cpp: Backend: Vulkan - Model: MiniMax-M2.5-UD-TQ1_0 - Test: Prompt Processing 512

225.25 Tokens Per Second

Llama.cpp: Backend: Vulkan - Model: MiniMax-M2.5-UD-TQ1_0 - Test: Text Generation 128

46.20 Tokens Per Second

Llama.cpp: Backend: Vulkan - Model: Mistral-7B-Instruct-v0.3-Q8_0 - Test: Text Generation 128

27.44 Tokens Per Second

Llama.cpp: Backend: Vulkan - Model: Qwen3-8B-Q8_0 - Test: Prompt Processing 1024

1 099 Tokens Per Second

Llama.cpp: Backend: Vulkan - Model: Qwen3-8B-Q8_0 - Test: Prompt Processing 2048

1 030 Tokens Per Second

Llama.cpp: Backend: Vulkan - Model: Qwen3-8B-Q8_0 - Test: Prompt Processing 512

1 115 Tokens Per Second

Llama.cpp: Backend: Vulkan - Model: Qwen3-8B-Q8_0 - Test: Text Generation 128

25.79 Tokens Per Second

Llama.cpp: Backend: Vulkan - Model: gpt-oss-20b-Q8_0 - Test: Prompt Processing 1024

1 427 Tokens Per Second

Llama.cpp: Backend: Vulkan - Model: gpt-oss-20b-Q8_0 - Test: Prompt Processing 2048

1 416 Tokens Per Second

Llama.cpp: Backend: Vulkan - Model: gpt-oss-20b-Q8_0 - Test: Prompt Processing 512

1 420 Tokens Per Second

Llama.cpp: Backend: Vulkan - Model: gpt-oss-20b-Q8_0 - Test: Text Generation 128

78.56 Tokens Per Second

MLPerf, deepseek-r1 (fp8)

1 113 tokens/s

MLPerf, mixtral-8x7b (fp8)

7 132 tokens/s

Дополнительно

Слоты

IGP
🔥 SXM Module

Дата выпуска

7 июля 2013 г. 18 ноября 2024 г.

Дисплейные порты

Motherboard Dependent
No outputs

Арендовать дешевле, чем покупать