当前位置: 首页 > news >正文

轻量级高性能推理引擎MNN 学习笔记 04.线性回归

1. 线性回归

MNN 官方给的iOS Demo中,输入是图片,输出是分类结果,相对来讲,略微有些复杂,我们现在用一个最简单的线性回归模型,来说明MNN的用法。

该线性回归是y=ax+b (其中a=2,b=0.01) ,针对该模型,我们分别进行以下实验:

  1. PC端的MNN python 推理
  2. iOS端MNN C++推理

1.1. 思路

  1. 确定选择后端类型(CPU、GPU、Metal,默认为CPU)及线程数量(默认值为4)
  2. 创建Interpreter & Session & 加载模型
  3. 获取输入张量及张量形状
  4. CPU端准备输入数据
  5. 将输入数据传给输入张量
  6. 推理
  7. 获取输出张量及张量形状
  8. CPU端获取输出数据

1.2. python推理

import MNN
import numpy as np# 加载 MNN 模型
interpreter = MNN.Interpreter("linear_test_model.mnn")# 创建会话session = interpreter.createSession()# 获取输入张量
input_tensor = interpreter.getSessionInput(session)# 获取输入张量的形状
input_shape = input_tensor.getShape()  # 使用 getShape() 获取形状
print(f"Input tensor shape: {input_shape}")# 准备输入数据
input_data = np.random.randn(*input_shape).astype(np.float32)  # 示例输入数据
print(f"Input data shape: {input_data.shape}")
input_data[0,0]=3.0
print(f"Input data: {input_data}")
print(f"理论计算值 data(y=2*x+0.01): {input_data*2+0.01}")
tmp_input = MNN.Tensor(input_shape, MNN.Halide_Type_Float, input_data, MNN.Tensor_DimensionType_Caffe)# 设置输入并运行推理
input_tensor.copyFrom(tmp_input)
interpreter.runSession(session)# 获取输出张量
output_tensor = interpreter.getSessionOutput(session)
output_data = output_tensor.getData()  # 获取推理结果
print(f"推理输出:{output_data}")

1.3. iOS C++推理

1.3.1. Metal GPU

/*** GPU缓存结构体,用于管理Metal GPU相关的资源* 包含纹理缓存、设备、计算管线、常量缓冲区等Metal对象*/
struct GpuCache {CVMetalTextureCacheRef _textureCache;  // Metal纹理缓存引用,用于管理纹理资源id<MTLDevice> _device;                 // Metal设备对象,代表物理GPUid<MTLComputePipelineState> _pretreat; // 预处理计算管线状态id<MTLFunction> _function;             // Metal着色器函数id<MTLBuffer> _constant;               // 常量缓冲区,用于存储预处理参数id<MTLCommandQueue> _queue;            // 命令队列,用于向GPU提交命令/*** 构造函数:初始化所有Metal相关资源*/GpuCache() {// 创建默认的Metal设备(GPU)_device = MTLCreateSystemDefaultDevice();// 创建Metal纹理缓存CVReturn res = CVMetalTextureCacheCreate(nil, nil, _device, nil, &_textureCache);FUNC_PRINT(res);// 获取默认的Metal库,包含编译好的着色器函数id<MTLLibrary> library = [_device newDefaultLibrary];// 获取名为"pretreat"的预处理着色器函数_function = [library newFunctionWithName:@"pretreat"];// 创建计算管线状态NSError* error = nil;_pretreat = [_device newComputePipelineStateWithFunction:_function error:&error];// 创建常量缓冲区,大小为PretreatInfo结构体的大小_constant = [_device newBufferWithLength:sizeof(PretreatInfo) options:MTLCPUCacheModeDefaultCache];// 创建命令队列_queue = [_device newCommandQueue];}/*** 析构函数:清理资源* TODO: 需要实现资源的释放*/~GpuCache() {// 这里应该添加资源释放代码// 释放 _textureCache, _device, _pretreat, _function, _constant, _queue 等}
};

1.3.2. GPU推理

针对GPU推理,需要配置 scheduleConfig.type = MNN_FORWARD_METAL; 及相关的GPU资源配置
接下来思路与PC端推理类似

-(void) linear_gpu {if (!_session.running) {std::shared_ptr<GpuCache> _cache;// 如果GPU缓存未初始化,创建新的GPU资源缓存if (nullptr == _cache) {_cache.reset(new GpuCache);}NSLog(@"开始 GPU 推理...");// 加载MNN模型NSString* modelPath = [[NSBundle mainBundle] pathForResource:@"linear_test_model" ofType:@"mnn"];auto _net = std::shared_ptr<MNN::Interpreter>(MNN::Interpreter::createFromFile([modelPath UTF8String]));if (!_net) {NSLog(@"Failed to create interpreter");return;}//auto session = interpreter->createSession(nullptr); // nullptr 表示使用默认配置MNN::ScheduleConfig scheduleConfig;scheduleConfig.type = MNN_FORWARD_METAL;MNN::Session *_session;if (scheduleConfig.type == MNN_FORWARD_METAL) {// Metal GPU模式下的特殊配置MNN::BackendConfig bnConfig;MNNMetalSharedContext context;// 设置Metal上下文,复用已创建的设备和命令队列context.device = _cache->_device;context.queue = _cache->_queue;bnConfig.sharedContext = &context;scheduleConfig.backendConfig = &bnConfig;_session = _net->createSession(scheduleConfig);}// 获取输入张量auto inputTensor = _net->getSessionInput(_session, NULL);auto inputShape = inputTensor->shape(); // 获取形状int size = 1;for (int i = 0; i < inputShape.size(); ++i) {size *= inputShape[i];NSLog(@"inputShape[%d]: %d", i, inputShape[i]);}NSLog(@"size: %d", size);float inputData[size];for (int i = 0; i < size; ++i) {inputData[i] = ((float)rand() / RAND_MAX); // 随机初始化NSLog(@"inputData[%d]: %f", i, inputData[i]);}// 创建 Host Tensor 并拷贝数据MNN::Tensor* hostTensor = MNN::Tensor::create(inputShape, halide_type_of<float>());memcpy(hostTensor->host<float>(), inputData, sizeof(float) * size);inputTensor->copyFromHostTensor(hostTensor);// 运行推理_net->runSession(_session);// 获取输出auto outputTensor = _net->getSessionOutput(_session, nullptr);MNN::Tensor  outputHostTensor (outputTensor);outputTensor->copyToHostTensor(&outputHostTensor);// 输出结果float *outputData=outputHostTensor.host<float>();NSLog(@"原始结果 y=2*x+0.01: %f", 2*inputData[0] + 0.01);NSLog(@"预测输出a: %f", outputData[0]);// 清理资源MNN::Tensor::destroy(hostTensor);}
}

1.4. 参考

  1. MNN介绍 — MNN-Doc 2.1.1 documentation

相关文章:

  • 手动导出Docker进行并自动执行脚本命令的操作方法
  • uni-app项目从0-1基础架构搭建全流程
  • 一些C++入门基础
  • 二维码外面套一个黄色圆圈 之间间隙太大
  • 小红书“开门”,摸到电商金钥匙?
  • 设计模式----软考中级软件设计师(自用学习笔记)
  • 【nRF9160 常用prj.conf配置与AT指令介绍】
  • 基于MakeReal3D的虚拟预装系统:飞机装配效率与精度的双重突破
  • QT6 源(113)篇二:阅读与注释工具栏 QToolBar,给出源码
  • C46-二维数组与指针的总结
  • 谁在用AI掘金?——近屿智能教你掌握AI时代的生存密码
  • 开源运维工具HHDESK源码开发
  • 【DCGMI专题2】---DCGMI 常用命令详解与生产实例分析
  • 《微机原理与接口技术》第 8 章 常用接口芯片
  • es学习小结
  • LeetCode-前缀和-和为K的子数组
  • 便捷的Office批量转PDF工具
  • 第32节:基于ImageNet预训练模型的迁移学习与微调
  • 鸿蒙路由参数传递
  • X 下载器 2.1.42 | 国外媒体下载工具 网页视频嗅探下载
  • 福建省委副秘书长、政研室主任郭国云已赴厦门履新
  • 神舟二十号航天员乘组将于近日择机实施第一次出舱活动
  • 深圳南山法院回应“执行款未到账”:张核子公司申请的执行异议成立
  • 迪拜工业城2025年初表现强劲,有望迎来投资增长新高
  • 墨西哥城市长私人秘书及顾问遇袭身亡
  • 昆明市委:今年起连续三年,每年在全市集中开展警示教育