当前位置: 首页 > news >正文

Jetson边缘计算主板:Ubuntu 环境配置 CUDA 与 cudNN 推理环境 + OpenCV 与 C++ 进行目标分类

最近由于业务需求,接触到了Jetson边缘AI计算主板,博主使用的是Jetson Orin NX 16GB这个版本,可以看到其算力达到了100TOPS,这是一个非常恐怖的算力了,接下来便是博主对其的环境配置过程,博主要在该主板上运行一个旋转检测模型,过程如下:

在这里插入图片描述
Jetson使用的是Arm架构,所以在配置时会存在差异
在使用Jetson系列设备时,为了实时查看CPUGPU,我们首先应该安装Jtop软件

1. 安装Jtop监测软件

1.1 安装 pip3

因为我们需要使用pip3来安装jtop,所以需要在系统中先安装pip3

sudo apt install python3-pip

在这里插入图片描述

1.2 安装 jtop

sudo -H pip3 install -U jetson-stats

在这里插入图片描述

随后直接输入jtop即可:

在这里插入图片描述

随后我们点击INFO,查看系统信息:
可用看到,此时CUDAcuDNN都是没有的,OpenCV也是不支持CUDA加速的。

在这里插入图片描述

那么,我们接下来该怎么做呢,难道要像WindowUbuntu下那样安装CUDAcudNN吗,不不不,Jetson为方便开发者,提供了 Jetpack开发套件,其帮了我们大忙

2. 安装JETPACK套件

为啥安装 Jetpack,那就是 JetpackNvidiaJetson系列开发板开发的一款软件开发包,常用的开发工具基本都包括了,并在在安装 Jetpack的时候,会自动安装匹配版本的CUDAcuDNNTensorRT等。

在这里插入图片描述

我们耐心等待即可,安装完成后,再次调用 JTop 查看,此时我们看到CUDAcuDNN已经装好了,接下来便是对其进行配置,并重新编译OpenCV,使其能够支持CUDA加速

在这里插入图片描述
目前,我们只是安装了CUDA和cuDNN,接下来我们需要对其进行配置

3. CUDA与cuDNN配置

cuDNN 默认安装路径在 /usr/lib/aarch64-linux-gnu
CUDA 默认安装路径在 /usr/local/cuda

3.1 CUDA配置

配置Cuda环境变量:
CUDA 已经默认安装在了/usr/local/cuda下,运行如下指令:

sudo vim ~/.bashrc		# 打开~/.bashrc#在文本末输入如下代码:
export LD_LIBRARY_PATH=$LD_LIBRARY_PATH:/usr/local/cuda/lib64
export PATH=$PATH:/usr/local/cuda/bin
export CUDA_HOME=$CUDA_HOME:/usr/local/cudasource ~/.bashrc	#保存环境变量

在这里插入图片描述

我们使用nvcc-V查看一下CUDA配置:

在这里插入图片描述

3.2 cuDNN配置

虽然安装了cuDNN,但没有将对应的头文件、库文件放到cuda目录。

cuDNN的头文件在:/usr/include,库文件位于:/usr/lib/aarch64-linux-gnu。将头文件与库文件复制到cuda目录下:

# 复制文件到cuda目录下
cd /usr/include && sudo cp cudnn* /usr/local/cuda/include
cd /usr/lib/aarch64-linux-gnu && sudo cp libcudnn* /usr/local/cuda/lib64

在这里插入图片描述

随后创建软链接,这个步骤不能少,否则在OpenCV 编译时会报错,因为其找不到cuDNN

# 修改文件权限,修改复制完的头文件与库文件的权限,所有用户都可读,可写,可执行:
sudo chmod 777 /usr/local/cuda/include/cudnn.h 
sudo chmod 777 /usr/local/cuda/lib64/libcudnn*# 重新软链接,这里的9.3.0和9对应安装的cudnn版本号和首数字
cd /usr/local/cuda/lib64sudo ln -sf libcudnn.so.9.3.0 libcudnn.so.9sudo ln -sf libcudnn_ops_train.so.9.3.0 libcudnn_ops_train.so.9
sudo ln -sf libcudnn_ops_infer.so.9.3.0 libcudnn_ops_infer.so.9sudo ln -sf libcudnn_adv_train.so.9.3.0 libcudnn_adv_train.so.9
sudo ln -sf libcudnn_adv_infer.so.9.3.0 libcudnn_adv_infer.so.9sudo ln -sf libcudnn_cnn_train.so.9.3.0 libcudnn_cnn_train.so.9
sudo ln -sf libcudnn_cnn_infer.so.9.3.0 libcudnn_cnn_infer.so.9sudo ldconfig

3.3 测试cuDNN

执行下面的命令:

sudo cp -r /usr/src/cudnn_samples_v9/ ~/  #将系统中自带的 cuDNN 示例代码文件夹 cudnn_samples_v8 复制到你的用户主目录(~/)  方便测试
cd ~/cudnn_samples_v9/mnistCUDNN
sudo chmod 777 ~/cudnn_samples_v9  #给整个 cudnn_samples_v8 目录赋予“所有用户”完全权限(读、写、执行
sudo make clean && sudo make  #清理之前的编译产物并重新编译示例程序
./mnistCUDNN

默认会复制到这个路径下:

在这里插入图片描述

如果测试通过的话,会最终输出:

在这里插入图片描述

如果在执行sudo make clean && sudo make时报错:

在这里插入图片描述

那么就表示缺少对应的库,安装下面的库即可:

sudo apt-get install libfreeimage3 libfreeimage-dev

安装完成之后再进行sudo make,基本上就可以编译成功了。

4. OpenCV with CUDA编译

先前我们安装的OpenCV无法通过CUDA编译,因此我们要考虑是否是OpenCV版本不匹配导致的,先前我们按照的是OpenCV 4.9,而我们的CUDAcuDNN版本分别是12.69.3,我们需要查看一下与之匹配的OpenCV版本:

理论上博主使用OpenCV 4.9 应该是没有问题的,奈何就是不行,果断使用最新版本的OpenCV,即4.13,直接上就完了。

在这里插入图片描述

4.1 运行 CMake 配置

下载对应的 opencv 源码和 opencv_contrib 源码,然后创建,这里博主把 opencv_contrib 放到了opencv 下面,然后创建build文件目录,开始CMake配置。
注意,一定要下载opencv_contrib的源码,否则会报错,下面博主在执行时便遇到了这个问题。

因为OpenCV 的一些 CUDA 功能(如内存管理、底层工具)被移到了 opencv_contrib 仓库中的 cudev 模块中,所以我们需要下载opencv_contrib
将下载后的opencv_contrib放到opencv文件夹下:

在这里插入图片描述

随后切换到build文件夹下,执行下面的脚本:

cmake -D CMAKE_BUILD_TYPE=RELEASE \-D CMAKE_INSTALL_PREFIX=/usr/local \-D WITH_CUDA=ON \-D OPENCV_DNN_CUDA=ON \-D ENABLE_FAST_MATH=ON \-D CUDA_FAST_MATH=ON \-D WITH_CUBLAS=ON \-D OPENCV_EXTRA_MODULES_PATH=../opencv_contrib/modules \-D BUILD_opencv_cudev=ON \..

完成后的效果如下:

在这里插入图片描述

4.2 OpenCV with CUDA 编译与安装

生成CMake文件后,进行编译并安装

make -j$(nproc)  #调用最大CPU可用数量,用于加速make编译

在这里插入图片描述

这个过程会比较漫长,预计得半个多小时 。。。。。

最终编译完成后效果:

在这里插入图片描述

在完成后,我们执行安装命令:

sudo make install

安装成功:

在这里插入图片描述

安装完成后,我们就可以进行测试了,我们依旧选择一个分类模型进行测试:
cd/opencv/samples/cpp/example_cmake目录下,然后打开opencv_example.cpp文件,替换为下面的代码,这个代码执行的便是 加载分类ONNX模型进行推理。

#include <opencv2/opencv.hpp>
#include <opencv2/dnn.hpp>
#include <iostream>
#include <vector>
#include <cmath>// Softmax 函数
void softmax(const float* data, float* output, int size) {float max_val = -INFINITY;for (int i = 0; i < size; ++i) {max_val = std::max(max_val, data[i]);}float sum_exp = 0.0f;for (int i = 0; i < size; ++i) {sum_exp += std::exp(data[i] - max_val);}for (int i = 0; i < size; ++i) {output[i] = std::exp(data[i] - max_val) / sum_exp;}
}int main() {// 检查是否有可用的 CUDA 设备if (cv::cuda::getCudaEnabledDeviceCount() == 0) {std::cerr << "没有检测到 CUDA 设备,请检查 OpenCV 是否启用了 WITH_CUDA 和 OPENCV_DNN_CUDA" << std::endl;return -1;} else {std::cout << "CUDA is Used,Detected " << cv::cuda::getCudaEnabledDeviceCount() << "  GPU" << std::endl;}// 加载模型std::string modelPath = "juan_cls.onnx";cv::dnn::Net net = cv::dnn::readNetFromONNX(modelPath);if (net.empty()) {std::cerr << "无法加载模型,请检查路径是否正确" << std::endl;return -1;}// 设置网络后端为 CUDAnet.setPreferableBackend(cv::dnn::DNN_BACKEND_CUDA);net.setPreferableTarget(cv::dnn::DNN_TARGET_CUDA);// 图像输入cv::Mat img = cv::imread("img.jpg");if (img.empty()) {std::cerr << "无法加载图像 img.jpg" << std::endl;return -1;}// 预处理int inputWidth = 640;int inputHeight = 640;cv::Mat blob = cv::dnn::blobFromImage(img, 1.0, cv::Size(inputWidth, inputHeight),cv::Scalar(), true, false);net.setInput(blob);// 推理(GPU)cv::Mat out = net.forward();std::cout << "Inference Shape: " << out.size << std::endl;// 假设输出是 [1 x C x H x W]int batchSize = out.size[0];   // 1int channels = out.size[1];    // 2int height = out.size[2];      // 640int width = out.size[3];       // 640std::vector<float> avgScores(channels, 0.0f);for (int c = 0; c < channels; ++c) {double sum = 0.0;float* ptr = out.ptr<float>(0, c);  // batch=0, channel=cfor (int h = 0; h < height; ++h) {for (int w = 0; w < width; ++w) {sum += ptr[h * width + w];}}avgScores[c] = static_cast<float>(sum / (height * width));}// Softmax 归一化float probs[2];softmax(avgScores.data(), probs, 2);// 输出结果std::cout.precision(4);std::cout << std::fixed;std::cout << "\nResult" << std::endl;std::cout << "Cls 0 Score: " << probs[0] << std::endl;std::cout << "Cls 1 Score: " << probs[1] << std::endl;std::cout << "Cls: " << (probs[0] > probs[1] ? 0 : 1) << std::endl;return 0;
}

随后执行下面的命令:

cmake .
make
./opencv_example

最终效果如下,可以看到检测到了一个GPU,并且在执行时能够明显感觉到速度提升了。

在这里插入图片描述

此时我们再使用jtop查看环境,可用看到此时的OpenCV便是可用使用CUDA的了。

在这里插入图片描述

踩坑

当我们没有下载opencv_contrib代码时,我们在CMake时执行这段编译代码:

cmake -D CMAKE_BUILD_TYPE=RELEASE \-D CMAKE_INSTALL_PREFIX=/usr/local \-D WITH_CUDA=ON \-D OPENCV_DNN_CUDA=ON \-D ENABLE_FAST_MATH=ON \-D CUDA_FAST_MATH=ON \-D WITH_CUBLAS=ON \-D BUILD_opencv_cudacodec=OFF \-D BUILD_EXAMPLES=OFF ..

在这里插入图片描述

会发生报错:

在这里插入图片描述

http://www.dtcms.com/a/265426.html

相关文章:

  • 【Note】《深入理解Linux内核》Chapter 9 :深入理解 Linux 内核中的进程地址空间管理机制
  • MySQL数据库----DML语句
  • 深度学习新星:Mamba网络模型与核心模块深度解析
  • Python入门Day2
  • 【第三章:神经网络原理详解与Pytorch入门】01.神经网络算法理论详解与实践-(3)神经网络中的前向传播、反向传播的原理与实现
  • Python中`import` 语句的执行涉及多个步骤
  • 【Python】批量提取超声波检查图片的某一行数据
  • Docker 容器如何实现资源限制(如 CPU 和内存)
  • MacOS Safari 如何打开F12 开发者工具 Developer Tools
  • 【C++】状态模式
  • 好用的自带AI功能的国产IDE
  • Go与Python爬虫对比及模板实现
  • 信刻光盘安全隔离与文件单向导入/导出系统
  • 高压电缆护层安全的智能防线:TLKS-PLGD 监控设备深度解析
  • NVIDIA Spectrum-3 SN4000 系列SN4000 SN4000 系列速度高达 400Gb/秒的现代横向扩展分布式数据中心应用提供支持。
  • 站在 Java 程序员的角度如何学习和使用 AI?从 MVC 到智能体,范式变了!
  • 使用Mac自带的图像捕捉导出 iPhone 相册
  • Mac电脑 虚拟机 VMware Fusion13
  • 办公文档批量打印器 Word、PPT、Excel、PDF、图片和文本,它都支持批量打印。
  • AI 如何批量提取 Word 表格中的字段数据到 Excel 中?
  • docker-compose一键部署全栈项目。springboot后端,react前端
  • 前端框架中注释占位与Fragment内容替换的实现与优化
  • 按键精灵 安卓脚本开发:游戏实战之自动切换账号辅助工具
  • 回归模型评价指标
  • 板凳-------Mysql cookbook学习 (十一--------3)
  • c# [AllowAnonymous] API 匿名访问
  • 微软发布突破性医疗AI系统
  • 基于 Elasticsearch 实现地图点聚合
  • thinkphp中间件
  • Redis—哨兵模式