当前位置: 首页 > wzjs >正文

网站建设属于什么专业产品推广ppt

网站建设属于什么专业,产品推广ppt,网页建站需要多少钱,公司简介模板范文100字文章目录 前言一、导出yolov8模型为onnx文件二、VS2019中环境配置三、源码与实际运行 前言 本文主要研究场景为工业场景下,在工控机与工业相机环境中运行的视觉缺陷检测系统,因此本文主要目的为实现c环境下,将yolov8已训练好的检测模型使用o…

文章目录

  • 前言
  • 一、导出yolov8模型为onnx文件
  • 二、VS2019中环境配置
  • 三、源码与实际运行


前言

本文主要研究场景为工业场景下,在工控机与工业相机环境中运行的视觉缺陷检测系统,因此本文主要目的为实现c++环境下,将yolov8已训练好的检测模型使用onnxruntime 部署通过cpu或gpu cuda加速进行检测运算

一、导出yolov8模型为onnx文件

Yolo官方支持onnx的使用,直接使用yolo的官方库即可
配置好训练权重文件路径,输出参数按自己需求查手册配置

from ultralytics import YOLO# Load a model
#model = YOLO("yolov8n.pt")  # Load an official model
model = YOLO(r"D:\deep_learning\YOLOv8.2\runs\train\exp9\weights\best.pt") # Load a custom trained model# Export the model
success = model.export(format="onnx", opset=11, simplify=True)

输出成功的文件会在权重文件同目录下
在这里插入图片描述
这里生成的文件为11.6MB,过小的onnx文件可能是生成失败产生的
在这里插入图片描述
获取了onnx文件后接下来配置调用onnx文件的部分

二、VS2019中环境配置

上篇文章中详细介绍了opencv在vs2019中的配置方法,这里就不再重复写了
opencv的配置见【Yolov8部署】 VS2019+opencv-dnn CPU环境下部署目标检测模型

YOLO官方提供的onnxruntime示例源码如下
https://github.com/ultralytics/ultralytics/tree/main/examples/YOLOv8-ONNXRuntime-CPP
可按需下载使用,本文提供另一种使用方法,下文会附上源码
在这里插入图片描述
首先需要下载ONNX Runtime gpu版本库
下载链接如下:
https://github.com/microsoft/onnxruntime/releases/tag/v1.21.0
在这里插入图片描述
ONNX Runtime的版本需要注意与cuda版本对应
我的cuda版本装的是11.6,这里选用1.15版本的ONNX Runtime
在这里插入图片描述
使用onnxruntime推理不需要额外用opencv_gpu版本,cpu版本的opencv就可以满足要求
VS主要需要配置的是包含目录和三个动态库
在这里插入图片描述
库目录配置
在这里插入图片描述
附加依赖项配置,将三个lib动态库都配置上
在这里插入图片描述

三、源码与实际运行

以下是调用推理源码
main.cpp

#include <opencv2/opencv.hpp>
#include "onnxruntime_cxx_api.h"int main()
{// 预测的目标标签数std::vector<std::string> labels;labels.push_back("bright_collision");labels.push_back("dark_collision");std::filesystem::path current_path = std::filesystem::current_path();std::filesystem::path imgs_path = current_path / "images";for (auto& i : std::filesystem::directory_iterator(imgs_path)){if (i.path().extension() == ".jpg" || i.path().extension() == ".png" || i.path().extension() == ".jpeg"){std::string img_path = i.path().string();cv::Mat img = cv::imread(img_path);}}// 测试图片cv::Mat image = cv::imread("D:\\VsEnvironment\\yolov8onnxCUDA\\yolov8onnxCUDA\\images\\Image_20241126165712899.jpg");cv::imshow("输入图", image);// ******************* 1.初始化ONNXRuntime环境 *******************Ort::Env env = Ort::Env(ORT_LOGGING_LEVEL_ERROR, "D:\\VsEnvironment\\dataSet\\best.onnx");// ***************************************************************// ******************* 2.设置会话选项 *******************// 创建会话Ort::SessionOptions session_options;// 优化器级别:基本的图优化级别session_options.SetGraphOptimizationLevel(ORT_ENABLE_BASIC);// 线程数:4session_options.SetIntraOpNumThreads(4);// 设备使用优先使用GPU而是才是CPUOrtSessionOptionsAppendExecutionProvider_CUDA(session_options, 0);//此条屏蔽则使用为cpu//OrtSessionOptionsAppendExecutionProvider_CPU(session_options, 1);std::cout << "onnxruntime inference try to use GPU Device" << std::endl;// ******************************************************// ******************* 3.加载模型并创建会话 *******************// onnx训练模型文件std::string onnxpath = "D:\\VsEnvironment\\dataSet\\best.onnx";std::wstring modelPath = std::wstring(onnxpath.begin(), onnxpath.end());// 加载模型并创建会话Ort::Session session_(env, modelPath.c_str(), session_options);// ************************************************************// ******************* 4.获取模型输入输出信息 *******************int input_nodes_num = session_.GetInputCount();			// 输入节点输int output_nodes_num = session_.GetOutputCount();		// 输出节点数std::vector<std::string> input_node_names;				// 输入节点名称std::vector<std::string> output_node_names;				// 输出节点名称Ort::AllocatorWithDefaultOptions allocator;				// 创建默认配置的分配器实例,用来分配和释放内存// 输入图像尺寸int input_h = 0;int input_w = 0;// 获取模型输入信息for (int i = 0; i < input_nodes_num; i++) {// 获得输入节点的名称并存储auto input_name = session_.GetInputNameAllocated(i, allocator);input_node_names.push_back(input_name.get());// 显示输入图像的形状auto inputShapeInfo = session_.GetInputTypeInfo(i).GetTensorTypeAndShapeInfo().GetShape();int ch = inputShapeInfo[1];input_h = inputShapeInfo[2];input_w = inputShapeInfo[3];std::cout << "input format: " << ch << "x" << input_h << "x" << input_w << std::endl;}// 获取模型输出信息int num = 0;int nc = 0;for (int i = 0; i < output_nodes_num; i++) {// 获得输出节点的名称并存储auto output_name = session_.GetOutputNameAllocated(i, allocator);output_node_names.push_back(output_name.get());// 显示输出结果的形状auto outShapeInfo = session_.GetOutputTypeInfo(i).GetTensorTypeAndShapeInfo().GetShape();num = outShapeInfo[0];nc = outShapeInfo[1];std::cout << "output format: " << num << "x" << nc << std::endl;}// **************************************************************// ******************* 5.输入数据预处理 *******************// 默认是BGR需要转化成RGBcv::Mat rgb, blob;cv::cvtColor(image, rgb, cv::COLOR_BGR2RGB);// 对图像尺寸进行缩放cv::resize(rgb, blob, cv::Size(input_w, input_h));blob.convertTo(blob, CV_32F);// 对图像进行标准化处理blob = blob / 255.0;	// 归一化cv::subtract(blob, cv::Scalar(0.485, 0.456, 0.406), blob);	// 减去均值cv::divide(blob, cv::Scalar(0.229, 0.224, 0.225), blob);	//除以方差// CHW-->NCHW 维度扩展cv::Mat timg = cv::dnn::blobFromImage(blob);std::cout << timg.size[0] << "x" << timg.size[1] << "x" << timg.size[2] << "x" << timg.size[3] << std::endl;// ********************************************************// ******************* 6.推理准备 *******************// 占用内存大小,后续计算是总像素*数据类型大小size_t tpixels = 3 * input_h * input_w;std::array<int64_t, 4> input_shape_info{ 1, 3, input_h, input_w };// 准备数据输入auto allocator_info = Ort::MemoryInfo::CreateCpu(OrtDeviceAllocator, OrtMemTypeCPU);Ort::Value input_tensor_ = Ort::Value::CreateTensor<float>(allocator_info, timg.ptr<float>(), tpixels, input_shape_info.data(), input_shape_info.size());// 模型输入输出所需数据(名称及其数量),模型只认这种类型的数组const std::array<const char*, 1> inputNames = { input_node_names[0].c_str() };const std::array<const char*, 1> outNames = { output_node_names[0].c_str() };// **************************************************// ******************* 7.执行推理 *******************std::vector<Ort::Value> ort_outputs;try {ort_outputs = session_.Run(Ort::RunOptions{ nullptr }, inputNames.data(), &input_tensor_, 1, outNames.data(), outNames.size());}catch (std::exception e) {std::cout << e.what() << std::endl;}// **************************************************// ******************* 8.后处理推理结果 *******************// 1x5 获取输出数据并包装成一个cv::Mat对象,为了方便后处理const float* pdata = ort_outputs[0].GetTensorMutableData<float>();cv::Mat prob(num, nc, CV_32F, (float*)pdata);// 后处理推理结果cv::Point maxL, minL;		// 用于存储图像分类中的得分最小值索引和最大值索引(坐标)double maxv, minv;			// 用于存储图像分类中的得分最小值和最大值cv::minMaxLoc(prob, &minv, &maxv, &minL, &maxL);// 获得最大值的索引,只有一行所以列坐标既为索引int max_index = maxL.x;std::cout << "label id: " << max_index << std::endl;// ********************************************************// 在测试图像上加上预测的分类标签cv::putText(image, labels[max_index], cv::Point(50, 50), cv::FONT_HERSHEY_SIMPLEX, 1.0, cv::Scalar(0, 0, 255), 2, 8);cv::imshow("输入图像", image);cv::waitKey(0);// ******************* 9.释放资源*******************session_options.release();session_.release();// *************************************************return 0;
}

由于预处理与推理都是调用onnxruntime_cxx_api.h中的部分,所以直接写在main.cpp中测试
通过OrtSessionOptionsAppendExecutionProvider_CUDA(session_options, 0);可以控制是使用cpu推理还是gpu_cuda进行推理
实际推理耗时如下
在这里插入图片描述

在这里插入图片描述
cpu用时141毫秒而gpu用时4.134秒
这里硬件环境是r7-3750h 1650-4g 16g运行内存
两者运行时间差异太大
可能是gpu计算分配耗时比较久,有知道原因的小伙伴可以在博客下留言告知

http://www.dtcms.com/wzjs/422796.html

相关文章:

  • 水果网站 模板竞价排名深度解析
  • 行业门户网站设计企业管理培训机构排名前十
  • 做百度文库需要网站吗正规的培训学校
  • 当今做网站的流行趋势如何做推广
  • 网站需求说明百度集团股份有限公司
  • bootstrap网站模板导航市场推广方案范文
  • 中国战事新闻最新消息青岛百度seo代理
  • 备案网站建设方案微信朋友圈广告在哪里做
  • 做网站推广 优帮云岳阳网站建设推广
  • java多人视频广州seo黑帽培训
  • java视频网站开发技术全国疫情最新数据
  • 那曲网站建设河南网站设计
  • 做网红用哪个网站搜索关键词软件
  • 宿州网站建设推广大地资源网在线观看免费
  • 网站 二次开发怎么做2020做seo还有出路吗
  • 用政府网站做参考文献的格式推广途径有哪些
  • 扬州专业做网站最新域名查询ip
  • 新网站为什么做的这么难怎么推广网站
  • 如何建设cf提卡网站百度数据研究中心官网
  • 最近军事新闻热点济南网站优化公司
  • 北京网站被处罚百度竞价排名
  • 工程项目信息查询百度百科优化
  • 怎么做消费一卡通网站百度网站优化
  • 装饰公司网站建站网络推广入门教程
  • 想找人做网站 要怎么选择深圳全网营销型网站
  • 建设企业网站需注意什么电商广告
  • 朝外大街网站建设精准客源
  • WordPress外链网盘关键词优化公司哪家好
  • 西城上海网站建设媒体:北京不再公布各区疫情数据
  • 上海嘉定网站市场调研报告范文2000