H100 — это профессиональный Inferred GPU. С 80GB HBM3 видеопамяти, он идеально подходит для обучения больших моделей (LLM) и сложных вычислений.
Рекомендуемые сценарии
LLM Training
Advanced AI Research
Deep Learning Fine-tuning
Архитектура
Hopper
VRAM
80GB HBM3
Пропускная способность
3350 GB/s
Ядра CUDA
16896
FP16 TFLOPS
1979 TFLOPS
TDP
700W