显卡型号 | 架构 | 显存/类型 | 显存带宽 | CUDA核心/张量核心/RT核心 | 单精度算力(FP32) | 张量算力(FP16/FP8) | 功耗(TDP) | 主要用途/备注 |
---|---|---|---|---|---|---|---|---|
H200 | Hopper | 141GB HBM3e | 4,800 GB/s | 16,896 / 528 / 24 | 67 TFLOPS(SXM) | 3,958 TFLOPS(FP8) | 700W(SXM) | H100升级,超大模型训练 |
H100 | Hopper | 80GB HBM3 | 2,000 GB/s | 14,592 / 456 / 24 | 51 TFLOPS(PCIe) | 3,026 TFLOPS(FP8) | 350W(PCIe) | 旗舰AI训练/推理 |
H800 | Hopper | 80GB HBM3 | 2,000 GB/s | 14,592 / 456 / 24 | 51 TFLOPS(PCIe) | 3,026 TFLOPS(FP8) | 350W | H100中国特供 |
L40S | Ada Lovelace | 48GB GDDR6 ECC | 864 GB/s | 18,176 / 568 / 142 | 91.6 TFLOPS | 1,466 TFLOPS(FP8) | 350W | 数据中心AI/渲染 |
H20 | Hopper | 96GB HBM3 | 2,000 GB/s | 14,592 / 456 / 24 | 47 TFLOPS | 1,400+ TFLOPS | 300W | H100/H800进一步阉割版 |
RTX 4090 24GB/48GB* | Ada Lovelace | 24GB GDDR6X (部分云定制48GB) | 1,008 GB/s | 16,384 / 512 / 128 | 82.6 TFLOPS | 660.6 TFLOPS(FP16) | 450W | 消费级旗舰,AI推理/渲染 |
L4 | Ada Lovelace | 24GB GDDR6 | 300 GB/s | 7,424 / 232 / 58 | 30.3 TFLOPS | 485 TFLOPS(FP8) | 72W | 云推理/视频AI |
A800 | Ampere | 80GB HBM2e | 2,039 GB/s | 6,912 / 432 / 108 | 19.5 TFLOPS | 312 TFLOPS(FP16) | 300W | 中国特供,AI训练/推理 |
BI-V150(国产) | 国产AI芯片 | 32GB/64GB HBM2* | * | * | * | * | * | 国产AI推理/训练 |
本文作者:Dong
本文链接:
版权声明:本博客所有文章除特别声明外,均采用 CC BY-NC。本作品采用《知识共享署名-非商业性使用 4.0 国际许可协议》进行许可。您可以在非商业用途下自由转载和修改,但必须注明出处并提供原作者链接。 许可协议。转载请注明出处!