当前位置: 首页 > news >正文

【DeploySharp 】基于DeploySharp 的深度学习模型部署测试平台:安装和使用流程

文章目录

    • 1. 程序获取和下载
    • 2. 平台介绍
      • 2.1 支持的模型选项
      • 2.2 支持的推理引擎工具
      • 2.3 支持的推理设备
    • 3. 推理引擎和设备匹配使用
    • 4. 程序运行示例
      • 4.1 OpenVINO推理
      • 4.2 ONNX Runtime推理
      • 4.3 ONNX Runtime推理 + OpenVINO加速
      • 4.4 ONNX Runtime推理 + DML加速

1. 程序获取和下载

  基于DeploySharp 开发的深度学习模型部署测试平台,提供了YOLO框架的主流系列模型,包括YOLOv5~v13,以及其系列下的Detection、Segmentation、Oriented Bounding Box、Human Pose Estimation等应用场景。模型部署引擎支持OpenVINO™、ONNX runtime,支持CPU、IGPU以及GPU多种设备推理。项目链接为:

https://github.com/guojin-yan/DeploySharp/tree/DeploySharpV1.0/applications

  如果你想快速使用该平台,可以加入QQ技术交流群通过群文件下载,或者通过GitHub在DeploySharp 项目中下载。

 git clone https://github.com/guojin-yan/DeploySharp.gitcd DeploySharp/applications

  打开指定目录后,直接打开DeploySharp-Applications.sln解决方案即可。

image-20251003123525415

  打开解决方案后,资源管理器中有两个项目,一个是.NET 6.0框架,一个是.NET Framework 4.8框架,用户可以根据自己需求进行运行。

image-20251003123554619

  程序运行后页面如下图所示:

image-20251002182043813

2. 平台介绍

2.1 支持的模型选项

基于DeploySharp 开发的深度学习模型部署测试平台所支持的模型列表与DeploySharp 库一致,后续会跟着DeploySharp 迭代进行同步更新,具体支持的模型:

image-20251003131537123

开发者在使用时,可以根据自己需求进行选择,但在使用时,模型路径“Model Path”选择的模型类型,要和“Model Type保持一致,否者程序运行可能出差或者结果出现错误。

2.2 支持的推理引擎工具

基于DeploySharp 开发的深度学习模型部署测试平台所支持多种推理引擎,其中已经开发完成并已经支持的有OpenVINO和ONNX Runtime,其中TensorRT正在开发中,不日后会完成支持。

image-20251003131610600

其中当推理设备选择ONNX Runtime时,还可以选择ONNX Runtime运行的推理引擎,支持的内容如下图所示:

image-20251003131828937

​ ONNX Runtime支持的更多加速方式,需要用户自己进行代码构建,其构建流程与方式,参考官方教程即可,链接为:

https://runtime.onnx.org.cn/docs/execution-providers/

2.3 支持的推理设备

同时用户还可以选择不同的推理设备,包括AUTO、CPU、GPU0、GPU1、NPU,其中GPU0、GPU1表示的含义要在使用的推理引擎工具中确定。

image-20251003131706230

3. 推理引擎和设备匹配使用

推理引擎推理设备ONNX加速
OpenVINOAUTO,CPU,GPU0(Intel 集显),GPU1(Intel 独显),NPUDefault
ONNX RuntimeCPUDefault
ONNX RuntimeAUTO,CPU,GPU0(Intel 集显),GPU1(Intel 独显),NPUOpenVINO
ONNX RuntimeGPU0(英伟达独显),GPU1(英伟达独显)Cuda
ONNX RuntimeGPU0,GPU1DML

4. 程序运行示例

在对应的项目中,图像处理库已经安装,不同项目就是使用的不同图像处理库,下面演示使用不同的模型推理引擎使用流程。

4.1 OpenVINO推理

所下载的项目中已经配置好了OpenVINO环境,选择模型和图片后,直接运行即可。推理结果如下图所示:

image-20251003141905755

如果使用的是.NET Framework 4.8框架,在程序运行前,请卸载并重新安装一下OpenVINO.runtime.win NuGet Package,重新生成项目后,进入到项目bin/Debug或者bin/Release目录,找到该目录下的文件夹dll/win-x64,在该目录下可以看到openvino_c.dll文件,然后将该目录下所有文件,复制到bin/Debug或者bin/Release目录下,重新再生成一下项目。如果使用的.NET 6.0框架,

4.2 ONNX Runtime推理

如果只是用ONNX Runtime推理,不需要安装其他的依赖既可以使用,默认只能使用CPU推理,如下图所示:

image-20251003143004837

4.3 ONNX Runtime推理 + OpenVINO加速

如果是用ONNX Runtime推理并配合OpenVINO加速,则需要安装额外的依赖库:

Intel.ML.OnnxRuntime.OpenVino

安装完成后,运行程序即可,其中原生OpenVINO支持的推理设备AUTO、CPU、GPU0(Intel 集显)、GPU1(Intel 独显)、NPU,在此处均可以使用,如下图所示:

image-20251003144046348

如果使用的是.NET Framework 4.8框架,安装完Intel.ML.OnnxRuntime.OpenVino后,如果依旧报错:”无法在 DLL“onnxruntime”中找到名为“OrtSessionOptionsAppendExecutionProvider_OpenVINO”的入口点。”,可以找到Intel.ML.OnnxRuntime.OpenVino包目录,然后将该目录下的所有dll文件,复制到项目的bin/Debug或者bin/Release目录下即可。

4.4 ONNX Runtime推理 + DML加速

如果是用ONNX Runtime推理并配合DML加速,则需要安装额外的依赖库:

Microsoft.ML.OnnxRuntime.DirectML

安装完成后,运行程序即可,此处可以使用GPU、GPU1,如下图所示:

image-20251003145255956

  以上便是基于DeploySharp 开发的深度学习模型部署测试平台的安装和使用教程。最后如果各位开发者在使用中有任何问题,欢迎大家与我联系。

image-20250224211044113

http://www.dtcms.com/a/439540.html

相关文章:

  • 十一、Maven web项目的构建
  • 网站建设首选网站统计访客数量怎么做
  • 广东微信网站制作报价安装wordpress 脚本
  • 福州做企业网站百度权重1
  • 做论坛网站需要什么备案网页制作需要下载什么软件
  • 手机电影网站源码模板网站建设 中
  • 山东住房城乡建设厅网站首页wordpress主题新闻
  • 数据科学与AI的未来就业前景如何?
  • 网站怎么申请微博登录wordpress返佣
  • 企业网站建设参考资料中国建设银行网站登陆
  • 自己做网站主机jsp网站开发框架
  • 专业网站推广服务咨询网站建站描述撰写
  • [光学原理与应用-475]:不同制程的需要检测的缺陷的尺寸
  • 正则化方法:L1和L2正则化在神经网络中的应用(代码实现)
  • 做众筹网站有哪些平面设计视频
  • Redis分布式锁:从“能用就行”到“稳如老狗”的迭代方案
  • 国庆Day3
  • 棋牌类网站开发聚名网官网入口
  • Spring Boot 与数据访问全解析:MyBatis、Thymeleaf、拦截器实战
  • 永久免费个人网站申请注册电子购物网站开发公司
  • 工信部网站黑名单软件开发工程师的岗位职责
  • 阿里云做的网站为啥没有ftp汉南做网站
  • 深度学习是如何收敛的?梯度下降算法原理详解
  • 1.Kali Linux操作系统的下载(2025年10月2日)
  • JVM(七)--- 垃圾回收
  • 专门制作网站郑州男科医院哪家治疗比较好
  • 网站开发 需求文档结构设计网站推荐
  • 自定义异常类中的super(msg)的作用
  • 我想卖自己做的鞋子 上哪个网站好扬州市建筑信息平台
  • 十里河网站建设百度做营销网站多少钱