GPU与CUDA对应
GPU算力列表
可以根据pytorch代码或根据参考链接查看GPU算力信息
import torch
for i in range(torch.cuda.device_count()):
gpu = torch.cuda.get_device_properties(i)
print(gpu)
| GPU name | CUDA capability | Total memory (MB) | Multi processor count |
|---|---|---|---|
| NVIDIA H100 PCIe | sm_90 | 81008 | 114 |
| NVIDIA A800 80GB PCIe | sm_80 | 81085 | 108 |
| NVIDIA A100 | sm_80 | 81050 | 108 |
| NVIDIA A10 | sm_86 | 22515 | 72 |
| Tesla T4 | sm_75 | 14930 | 40 |
| Tesla V100-SXM2-32GB | sm_70 | 32501 | 80 |
CUDA支持算力列表
| CUDA版本 | 支持算力(5.0等同于sm50) |
|---|---|
| 12.0–12.2 | 5.0–9.0 |
| 11.8 | 3.5–9.0 |
| 11.5–11.7.1 | 3.5–8.7 |
| 11.1–11.4 | 3.5–8.6 |
| 11.0 | 3.5–8.0 |
| 10.0–10.2 | 3.0–7.5 |
| 9.0–9.2 | 3.0–7.0 |
| 8.0 | 2.0–6.x |
| 7.0–7.5 | 2.0–5.x |
| 6.5 | 1.1–5.x |
| 6.0 | 1.0–3.5 |
| … |
参考链接
nvidia官方gpu计算能力对应
官方cuda_sm_gpu对应表
