GPU与CUDA对应
GPU算力列表
可以根据pytorch代码或根据参考链接查看GPU算力信息
import torch
for i in range(torch.cuda.device_count()):
gpu = torch.cuda.get_device_properties(i)
print(gpu)
GPU name | CUDA capability | Total memory (MB) | Multi processor count |
---|---|---|---|
NVIDIA H100 PCIe | sm_90 | 81008 | 114 |
NVIDIA A800 80GB PCIe | sm_80 | 81085 | 108 |
NVIDIA A100 | sm_80 | 81050 | 108 |
NVIDIA A10 | sm_86 | 22515 | 72 |
Tesla T4 | sm_75 | 14930 | 40 |
Tesla V100-SXM2-32GB | sm_70 | 32501 | 80 |
CUDA支持算力列表
CUDA版本 | 支持算力(5.0等同于sm50) |
---|---|
12.0–12.2 | 5.0–9.0 |
11.8 | 3.5–9.0 |
11.5–11.7.1 | 3.5–8.7 |
11.1–11.4 | 3.5–8.6 |
11.0 | 3.5–8.0 |
10.0–10.2 | 3.0–7.5 |
9.0–9.2 | 3.0–7.0 |
8.0 | 2.0–6.x |
7.0–7.5 | 2.0–5.x |
6.5 | 1.1–5.x |
6.0 | 1.0–3.5 |
… |
参考链接
nvidia官方gpu计算能力对应
官方cuda_sm_gpu对应表