【PyTorch 当前版本不支持 NVIDIA GeForce RTX 5060 Ti处理办法】
报错信息
X:\Stable-Diffusion-WebUI\system\python\lib\site-packages\torch\cuda\__init__.py:215: UserWarning:
NVIDIA GeForce RTX 5060 Ti with CUDA capability sm_120 is not compatible with the current PyTorch installation.
The current PyTorch install supports CUDA capabilities sm_50 sm_60 sm_61 sm_70 sm_75 sm_80 sm_86 sm_90.
If you want to use the NVIDIA GeForce RTX 5060 Ti GPU with PyTorch, please check the instructions at https://pytorch.org/get-started/locally/
从错误信息可知,PyTorch 当前版本不支持 NVIDIA GeForce RTX 5060 Ti 的 CUDA 计算能力 sm_120,这是导致 Stable Diffusion WEBUI 无法正常加载模型的关键所在。下面为你详细分析并提供解决办法:
问题分析
PyTorch 版本和 GPU 硬件之间存在兼容性问题。RTX 5060 Ti 的 CUDA 计算能力为 sm_120,然而当前安装的 PyTorch 版本仅仅支持到 sm_90(对应于 NVIDIA 的 Ada Lovelace 架构)。这表明你需要安装一个支持更新 GPU 架构的 PyTorch 版本。
解决办法
1. 安装支持 sm_120 的 PyTorch 版本
你要安装 nightly 版本的 PyTorch,该版本对最新的 GPU 架构提供支持。通过以下命令卸载现有的 PyTorch,然后安装 nightly 版本:
# 卸载当前的 PyTorch
pip uninstall torch torchvision torchaudio# 安装支持 CUDA 12.1 的 PyTorch nightly 版本
pip install --pre torch torchvision torchaudio --index-url https://download.pytorch.org/whl/nightly/cu121
2. 验证 PyTorch 是否能够识别 GPU
安装完成后,你可以通过运行以下 Python 代码来验证 PyTorch 是否能够正确识别你的 GPU:
import torch
print(torch.cuda.is_available()) # 应该输出 True
print(torch.cuda.get_device_name(0)) # 应该输出 "NVIDIA GeForce RTX 5060 Ti"
print(torch.version.cuda) # 显示 CUDA 版本
3. 其他需要注意的要点
- CUDA 工具包:要保证你的系统已经安装了 CUDA 12.1 或更高版本。你可以从 NVIDIA 官方网站下载并安装。
- Stable Diffusion WEBUI 设置:在启动 Stable Diffusion WEBUI 时,添加
--precision full --no-half
参数,以此避免在模型加载过程中出现精度问题。 - 虚拟环境:建议在全新的虚拟环境中进行安装,这样可以防止旧版本依赖项造成干扰。
操作步骤
- 打开命令提示符,进入 Stable Diffusion WEBUI 所在的目录。
- 激活虚拟环境(如果有虚拟环境的话)。
- 按照上述命令卸载并重新安装 PyTorch。
- 安装完成后,尝试再次启动 Stable Diffusion WEBUI。
如果在安装过程中遇到网络问题,你可以考虑使用国内的镜像源,例如:
pip install --pre torch torchvision torchaudio --index-url https://download.pytorch.org/whl/nightly/cu121 -i https://pypi.tuna.tsinghua.edu.cn/simple
后续检查
如果上述方法仍然无法解决问题,你可以尝试以下操作:
- 检查 Stable Diffusion WEBUI 是否有更新版本,更新到最新版本可能会解决兼容性问题。
- 查看 GitHub 上相关的 issue,了解其他用户是否也遇到了类似问题以及他们的解决方法。
- 考虑暂时使用 CPU 模式(添加
--skip-torch-cuda-test --use-cpu all
参数)来验证模型是否能够正常工作,不过这种方式的运行速度会比较慢。