当前位置: 首页 > news >正文

昇思学习营-模型推理和性能优化

Midnspore框架下大模型的整体部署流程:

DeepSeek-R1-Distill-Qwen-1.5B 模型推理流程:

基于权重加载和启动推理,就mindspore框架来说,基于lora微调后的推理流程分别为加载基础模型参数和微调参数,如下图代码所示

基于model.generate进行推理,相关参数如下图所示:

微调前和微调后的回答效果比较如下:

推理效果的调优:对于部分推理输出中会出现重复性的语句可以在上面提到的generate_kwargs配置中加入repetition_penalty=1.2来处理,如下图所示。

下面三段代码的截图为载入模型、配置模型的对话参数及模型对话功能演示。

性能测试及优化:

Mindspore中对模型推理优化通过禁用多线程外,可以通过jit来进行优化,如下图所示:

性能优化的前序准备包含下面流程:

1. 实现解码逻辑(decode函数、prefill-decode阶段)

2. 实例化StaticCache,动态Cache无法成图

添加jit装饰器

1. model.jit()

2. mindspore.jit装饰decode函数

整体流程如下图所示:

最后,整体优化后的每个token的输出时间如下所示:

学习心得:
1.了解mindspore的模型部署流程

  1. 对mindspore的模型微调训练后的参数如何加载进行了解
  2. 对于模型静态图和动态图的执行效率进行分析
  3. 对mindspore的jit模块的优化流程进行了解
  4. 对jit模块优化后的模型推理效果有一定程度的了解
http://www.dtcms.com/a/300440.html

相关文章:

  • Keepalived + LVS-DR 高可用与负载均衡实验
  • 【Python系列】使用 memory_profiler 诊断 Flask 应用内存问题
  • 结构化文本文档的内容抽取与版本重构策略
  • 8. 状态模式
  • 【NLP舆情分析】基于python微博舆情分析可视化系统(flask+pandas+echarts) 视频教程 - 微博舆情分析实现
  • vLLM 的“投机取巧”:Speculative Decoding 如何加速大语言模型推理
  • Spring Boot2错误处理
  • 负载均衡 LoadBalance
  • Spring Boot音乐服务器项目-查询音乐模块
  • 《Foundation 面板:设计、功能与最佳实践解析》
  • Java学习-------序列化与反序列化
  • UV: 下一代 Python 包管理工具
  • golang--虚拟地址空间
  • 阿里 Qwen3 四模型齐发,字节 Coze 全面开源,GPT-5 8 月初发布!| AI Weekly 7.21-7.27
  • 批量重命名带编号工具,附免费地址
  • Android网络框架封装 ---> Retrofit + OkHttp + 协程 + LiveData + 断点续传 + 多线程下载 + 进度框交互
  • linux根据pid获取服务目录
  • 一场关于电商零售增长破局的深圳探索
  • Vulnhub red靶机渗透攻略详解
  • PHP框架之Laravel框架教程:2. 控制器、路由、视图简单介绍
  • Baumer工业相机堡盟工业相机如何通过YoloV8深度学习模型实现标签条码一维码的检测(C#代码,UI界面版)
  • WPFC#超市管理系统(2)顾客管理、供应商管理、用户管理
  • MySQL ROUTER安装部署
  • EasyExcel使用(二:写出)
  • git 提交时排除一个或多个文件
  • mac系统彻底删除mysql并重装
  • 【LeetCode】LRU 缓存 题解
  • 在Podman/Docker容器中为Luckfox Lyra Zero W编译SDK:终极排错指南
  • C 语言第 10 天学习笔记:字符串基础操作与相关函数
  • 在docker中安装frp实现内网穿透