【YOLOv13保姆级教程#02】Pytorch环境配置与conda虚拟环境搭建 | 10分钟搞定目标检测推理验证
YOLOv13保姆级入门教程(二):10分钟极速搭建YOLOv13运行环境 | 小白也能看懂的conda环境创建与模型推理!
文章目录
- 📖 前言
- (1) 克隆YOLOv13官方代码库
- (2) 创建并激活Conda虚拟环境
- (3) 安装依赖包
- 3.1 核心依赖安装
- 3.2 安装Flash Attention (可选但推荐)
- 3.3 可编辑模式安装YOLOv13
- (4) 环境验证
- (5) 推理验证
- (6) 总结
📖 前言
Hello,大家好!欢迎来到YOLOv13保姆级教程的第二部分。在上一期《从Anaconda安装到环境配置》中,我们已经成功安装了Anaconda并配置好了国内镜像源。
今天,我们将在此基础上,正式开始为YOLOv13搭建一个专属、隔离的运行环境,并完成所有依赖的安装,最后通过一个简单的推理脚本来验证我们的环境是否配置成功。
(1) 克隆YOLOv13官方代码库
首先,我们需要从GitHub上获取YOLOv13的官方源代码。
-
创建项目目录 (推荐)
为了方便管理,我们先创建一个项目文件夹。# 在主目录下创建一个名为project的文件夹 mkdir ~/project cd ~/project
-
克隆代码库
使用git clone
命令从官方仓库克隆代码。git clone https://github.com/iMoonLab/yolov13.git
小贴士:如果
git clone
速度慢或失败,可以先通过浏览器在GitHub页面点击Code
->Download ZIP
下载压缩包,然后上传到服务器并解压。
unzip yolov13-main.zip
-
进入项目目录
cd yolov13-main
(2) 创建并激活Conda虚拟环境
根据官方README.md
的指导,YOLOv13需要Python 3.11版本。我们将为此创建一个独立的Conda环境。
# 创建一个名为yolov13,使用Python 3.11的环境
conda create -n yolov13 python=3.11# 激活刚刚创建的环境
conda activate yolov13
激活成功后,你的终端提示符会从(base)
变为(yolov13)
,表示当前工作在隔离的yolov13
环境中。
(3) 安装依赖包
YOLOv13项目非常贴心地提供了requirements.txt
文件,我们可以用pip
一键安装绝大部分依赖。
3.1 核心依赖安装
首先,进入克隆下来的yolov13-main
目录,然后执行以下命令:
# (yolov13) 表示当前已在yolov13环境中
pip install -r requirements.txt
安装过程中可能会遇到个别包的版本冲突问题,例如onnxruntime-gpu
。视频中演示了onnxruntime-gpu==1.18.0
版本在清华源找不到的问题。
解决方案:
直接编辑requirements.txt
文件,将冲突的包版本修改为镜像源中存在的、较新的兼容版本。例如,将onnxruntime-gpu==1.18.0
修改为onnxruntime-gpu==1.18.1
。
vim requirements.txt
# 将 onnxruntime-gpu==1.18.0 修改为 onnxruntime-gpu==1.18.1
# 保存退出后重新执行 pip install -r requirements.txt
3.2 安装Flash Attention (可选但推荐)
YOLOv13和YOLOv12一样,支持使用Flash Attention进行加速。如果你的GPU是NVIDIA 30系列或更新的显卡,强烈建议安装。
# 在yolov13-main目录下,首先下载预编译的wheel文件
wget https://github.com/Dao-AILab/flash-attention/releases/download/v2.7.3/flash_attn-2.7.3+cu11torch2.2-cp311-cp311-linux_x86_64.whl# 然后使用pip安装这个本地文件
pip install flash_attn-2.7.3+cu11torch2.2-cp311-cp311-linux_x86_64.whl
注意:下载的
.whl
文件名需要与你的CUDA版本和Python版本严格对应。这里的cu11
代表CUDA 11.x,cp311
代表Python 3.11。
3.3 可编辑模式安装YOLOv13
最后,以可编辑模式安装YOLOv13项目本身,这样你对代码的任何修改都能立即生效,方便后续的开发和调试。
pip install -e .
(4) 环境验证
所有依赖安装完毕后,我们需要验证一下环境是否配置成功,尤其是PyTorch和CUDA的兼容性。
-
进入Python交互环境
python
-
执行验证代码
依次输入以下命令:import torch import torchvision# 检查CUDA是否可用 print(f"CUDA available: {torch.cuda.is_available()}") # >>> CUDA available: True# 查看PyTorch关联的CUDA版本 print(f"PyTorch CUDA version: {torch.version.cuda}") # >>> PyTorch CUDA version: 12.1# 查看cuDNN是否可用 print(f"cuDNN available: {torch.backends.cudnn.is_available()}") # >>> cuDNN available: True# 查看cuDNN版本 print(f"cuDNN version: {torch.backends.cudnn.version()}") # >>> cuDNN version: 8902
确保
is_available()
都返回True
,并且CUDA版本与你的显卡驱动兼容。
(5) 推理验证
最后,我们用一个简单的推理脚本来验证YOLOv13模型是否能正常运行。
-
创建推理脚本
在yolov13-main
目录下创建一个新文件predict.py
。 -
粘贴代码
将以下代码粘贴到文件中:from ultralytics import YOLO# 加载预训练的YOLOv13n模型 model = YOLO('yolov13n.pt')# 对图片进行预测,这里使用官方提供的示例图片 # 也可以换成你自己的图片路径 results = model.predict('ultralytics/assets/bus.jpg', save=True)print("Prediction saved!")
说明:
YOLO('yolov13n.pt')
会自动从网络下载预训练权重。save=True
会将检测结果(带标注框的图片)保存在runs/detect/predict/
目录下。 -
运行脚本
python predict.py
运行成功后,你会看到类似下图的检测结果被保存在了相应目录。
恭喜!到这一步,你的YOLOv13运行环境已经完美配置成功!
(6) 总结
本期教程我们完成了YOLOv13环境配置的核心步骤:
- 克隆了官方代码库。
- 创建并激活了独立的Conda虚拟环境。
- 通过
requirements.txt
高效安装了所有依赖,并解决了可能出现的版本冲突。 - 成功运行了推理脚本,验证了整个环境的正确性。
现在,你已经拥有了一个可以随时进行YOLOv13模型训练、评估和部署的强大环境。在下一期教程中,我们将开始准备数据集,并进行模型的训练。我们下期再见!