使用OpenVINO将PP-OCRv5模型部署在Intel显卡上
作者:英特尔创新大使刘力
上文介绍了《一键搞定!PP-OCRv5模型转ONNX格式全攻略》,本文将使用OpenVINO™工具套件在Intel® CPU、独立显卡、集成显卡上优化并部署飞桨PP-OCRv5模型。
一,OpenVINO™工具套件简介
OpenVINO™工具套件是一个用于优化和部署人工智能(AI)模型,提升AI推理性能的开源工具集合,不仅支持以卷积神经网络(CNN)为核心组件的预测式AI模型(Predictive AI),还支持以Transformer为核心组件的生成式AI模型(Generative AI)。OpenVINO™工具套件支持直接读取并优化PaddlePaddle训练好的模型(*.pdmodel)或者ONNX格式模型(*.onnx),提升其在英特尔® CPU、独立显卡、集成显卡、NPU等硬件上的AI推理计算性能。
二,安装英特尔显卡驱动
参考链接:https://dgpu-docs.intel.com/driver/client/overview.html,在Ubuntu下完成英特尔显卡驱动安装。
三,搭建开发环境
首先,请克隆PP-OCRv5_OpenVINO到本地:
git clone https://github.com/openvino-book/PP-OCRv5_OpenVINO.gitcd PP-OCRv5_OpenVINO
接着,创建并激活虚拟环境ppocrv5_ov,并安装所有依赖项。
conda create -n ppocrv5_ov python=3.11conda activate ppocrv5_ovpip install -r requirements.txt
四,下载并导出PP-OCRv5 ONNX格式模型
请按《一键搞定!PP-OCRv5模型转ONNX格式全攻略》所示,下载并导出PP-OCRv5 ONNX格式模型到PP-OCRv5_OpenVINO文件夹。
五,编写PP-OCRv5推理程序
PP-OCRv5_OpenVINO项目已将推理程序编写完成,各文件功能如下:
执行演示程序main.py,并指定模型路径和推理硬件设备:
python main.py --image_dir images/handwrite_en_demo.png \
--det_model_dir PP-OCRv5_server_det_onnx/inference.onnx \
--det_model_device CPU \
--rec_model_dir PP-OCRv5_server_rec_onnx/inference.onnx \
--rec_model_device CPU
运行结果,如下图所示:
六,总结
开发者可以通过OpenVINO™工具套件将PP-OCRv5模型部署到Intel的CPU、独立显卡或集成显卡上。
如果你有更好的文章,欢迎投稿!
稿件接收邮箱:nami.liu@pasuntech.com
更多精彩内容请关注“算力魔方®”!