当前位置: 首页 > news >正文

多模态大模型推理技术突破:从 CoT 数据到 RL 优化,AI 推理如何征服复杂任务?

注:此文章内容均节选自充电了么创始人,CEO兼CTO陈敬雷老师的新书《GPT多模态大模型与AI Agent智能体》(跟我一起学人工智能)【陈敬雷编著】【清华大学出版社】

GPT多模态大模型与AI Agent智能体书籍本章配套视频课程【陈敬雷】

推荐算法系统实战全系列精品课【陈敬雷】

文章目录

  • GPT多模态大模型系列一
    • 多模态大模型推理技术突破:从 CoT 数据到 RL 优化,AI 推理如何征服复杂任务?
      • 多模态大模型推理技术研究总结
        • 一、背景与研究演进
        • 二、基于推理数据与搜索的方法
          • 1. Llava-CoT:结构化推理阶段与束搜索优化
          • 2. MPO:混合偏好优化与成对CoT数据构建
          • 3. Mulberry:基于蒙特卡洛树搜索的反思推理
        • 三、基于强化学习的方法
          • 1. StepGRPO:分步分组相对策略优化
          • 2. Reason-RFT:任务自适应软奖励函数设计
          • 3. OpenVLThinker:迭代自我改进框架
        • 四、当前方法的挑战与局限
        • 五、未来研究方向
        • 六、AI大模型学习资源补充
        • 总结
      • 更多技术内容
  • 总结

GPT多模态大模型系列一

多模态大模型推理技术突破:从 CoT 数据到 RL 优化,AI 推理如何征服复杂任务?

多模态大模型推理技术研究总结

一、背景与研究演进

多模态大模型在视觉问答、图像描述等传统任务中已展现出良好效果,随着OpenAI-O1、DeepSeek-R1等模型的推出,业界对多模态大模型推理能力的关注日益提升。当前研究大致经历两个阶段:O1推出后,研究聚焦于基于推理数据和搜索的方法,通过Prompting或搜索构建符合规律的思维链(CoT)数据并微调模型;R1推出后,更多研究转向基于奖励函数的强化学习方法,通过结果导向优化模型推理过程。

二、基于推理数据与搜索的方法
1. Llava-CoT:结构化推理阶段与束搜索优化
  • 核心方法:将推理过程拆解为四个固定阶段——Summary(问题回顾与策略规划)、Caption(图像信息提取)、Reasoning(分步推理)、Conclusion(结果总结)。利用GPT-4o生成100K结构化SFT数据(Llava-CoT-100K),并在推理阶段引入Stage-level Beam Search,每个阶段保留多个推理路径,通过模型验证选择最优路径。
  • 实验效果:在MMStar等基准测试中,Llava-CoT相比基础模型(Llama-3.2-11B-Vision-Instruct)平均提升7.8个百分点,Stage-level Beam Search(BS=2)进一步将性能提升至63.1%。结构化标签(如)能有效引导模型聚焦当前阶段生成。
2. MPO:混合偏好优化与成对CoT数据构建
  • 核心方法:与Llava-CoT直接生成SFT数据不同,MPO构建成对CoT数据进行偏好优化。对有标准答案的任务,生成多推理路径,正确结果为正样本、错误为负样本;对无标准答案的任务,将完整生成数据作为正样本,截断后让模型续写的结果作为负样本。训练时引入混合损失函数(L = w_pL_p + w_qL_q + w_gL_g),包含DPO损失、质量损失和SFT损失。
  • 实验验证:MPO在Internvl2-8B模型上优于单纯SFT,直接使用CoT Prompting可能导致性能下降,而经过MPO微调的模型可显著提升推理能力。
3. Mulberry:基于蒙特卡洛树搜索的反思推理
  • 核心方法:提出集体蒙特卡洛树搜索(CoMCTS),分扩展(Expansion)、模拟与错误定位(Simulation)、反向传播(Backpropagation)、选择(Selection)四个阶段。通过多模型生成推理路径,筛选高分节点并构建包含反思的CoT数据(如在错误节点后添加反思Prompt),用于SFT微调。
  • 实验结果:引入反思数据后,Math Vista任务性能从50.9%提升至51.7%,验证了反思机制对推理链优化的有效性。
三、基于强化学习的方法
1. StepGRPO:分步分组相对策略优化
  • 核心方法:在GRPO基础上,通过分步奖励(StepRAR和StepRVR)约束推理过程。StepRAR从CoT数据中提取关键步骤(如“AD是中线”“面积平分”等),通过软匹配计算奖励;StepRVR要求推理包含描述、步骤、答案三部分且顺序正确,确保逻辑连贯性。
  • 实验 ablation:在Qwen2-VL-7B模型上,仅StepRAR使Math Vista性能提升至61.2%,结合StepRVR进一步提升至63.5%,优于SFT和传统GRPO。
2. Reason-RFT:任务自适应软奖励函数设计
  • 核心方法:根据任务特性设计三类奖励函数:
    • 离散值精度奖励(如计数任务):结果完全一致才得1分;
    • 数学精度奖励(如实数计算):引入余弦函数容忍误差,当|a_pred - a_gt|在ε1·|GT|与ε2·|GT|之间时,按比例给分;
    • 函数型精度奖励(如变换序列):允许部分匹配(方法名、作用对象、值),按匹配度计算奖励。
  • 应用场景:在几何推理、空间变换等任务中,软奖励机制使模型更适应数值波动和部分正确情况。
3. OpenVLThinker:迭代自我改进框架
  • 核心方法:结合SFT与RL多轮迭代优化。首先通过caption模型和文本推理模型生成SFT数据,微调基础模型;然后用GRPO进行强化学习,生成新一轮SFT数据;重复迭代至性能饱和。
  • 实验突破:7B模型经3轮迭代后,在MathVista上性能接近72B模型,验证了数据迭代对模型能力提升的有效性。
四、当前方法的挑战与局限
  1. 泛化性不足:结构化SFT方法(如Llava-CoT的四阶段)在多图交错或简单问题中适用性有限,强行拟合固定模式可能加重模型幻觉。
  2. 多模态动机缺失:现有RL方法(如StepGRPO)的奖励函数仅针对文本推理,未直接优化多模态理解本身,缺乏对图像、视频等模态特征的显式约束。
  3. RL机理研究薄弱:尽管RL在推理任务中表现出更强泛化性,但其为何优于SFT的理论机制尚未明确,缺乏系统性分析。
  4. 跨任务迁移受限:当前实验多局限于同类型任务不同领域图片,RL对未见过任务类型的迁移能力仍需验证。
五、未来研究方向
  1. 通用推理框架设计:探索不依赖固定阶段的动态推理流程,适应多模态场景的多样性(如多图、视频、3D场景)。
  2. 多模态联合优化:将视觉特征理解与文本推理结合,设计跨模态奖励函数(如视觉-文本对齐度),强化模型对多源信息的整合能力。
  3. RL理论基础研究:分析RL在多模态推理中提升泛化性的本质原因,如策略更新机制、探索-利用平衡对推理链生成的影响。
  4. 跨任务迁移学习:构建跨模态、跨任务的推理评测体系,研究RL方法在医疗、机器人控制等复杂场景中的迁移能力。
六、AI大模型学习资源补充

文章末段提及系统学习AI大模型的资源,包括学习路线图(从Prompt工程到模型微调)、经典书籍(如《大模型应用开发极简入门》《LangChain入门指南》)、视频教程(深度学习基础、Transformer原理)、项目实战(智能问答系统、虚拟上装等)及面试题库。这些资源为技术落地提供了实践支撑,但核心仍需围绕多模态推理等前沿技术深化理论与工程能力。

总结

多模态大模型推理技术正从结构化数据驱动向动态优化演进,推理数据与搜索方法通过构建高质量CoT数据提升模型逻辑链生成能力,而强化学习方法则通过灵活奖励函数激发模型自适应推理潜力。未来需在泛化性、多模态融合及理论机理等层面突破,推动多模态大模型在复杂现实任务中的落地应用。

更多技术内容

更多技术内容可参见
《GPT多模态大模型与AI Agent智能体》(跟我一起学人工智能)【陈敬雷编著】【清华大学出版社】书籍。
更多的技术交流和探讨也欢迎加我个人微信chenjinglei66。

总结

此文章有对应的配套新书教材和视频:

【配套新书教材】
《GPT多模态大模型与AI Agent智能体》(跟我一起学人工智能)【陈敬雷编著】【清华大学出版社】
新书特色:《GPT多模态大模型与AI Agent智能体》(跟我一起学人工智能)是一本2025年清华大学出版社出版的图书,作者是陈敬雷,本书深入探讨了GPT多模态大模型与AI Agent智能体的技术原理及其在企业中的应用落地。
全书共8章,从大模型技术原理切入,逐步深入大模型训练及微调,还介绍了众多国内外主流大模型。LangChain技术、RAG检索增强生成、多模态大模型等均有深入讲解。对AI Agent智能体,从定义、原理到主流框架也都进行了深入讲解。在企业应用落地方面,本书提供了丰富的案例分析,如基于大模型的对话式推荐系统、多模态搜索、NL2SQL数据即席查询、智能客服对话机器人、多模态数字人,以及多模态具身智能等。这些案例不仅展示了大模型技术的实际应用,也为读者提供了宝贵的实践经验。
本书适合对大模型、多模态技术及AI Agent感兴趣的读者阅读,也特别适合作为高等院校本科生和研究生的教材或参考书。书中内容丰富、系统,既有理论知识的深入讲解,也有大量的实践案例和代码示例,能够帮助学生在掌握理论知识的同时,培养实际操作能力和解决问题的能力。通过阅读本书,读者将能够更好地理解大模型技术的前沿发展,并将其应用于实际工作中,推动人工智能技术的进步和创新。

【配套视频】

GPT多模态大模型与AI Agent智能体书籍本章配套视频 - 第1章 大模型技术原理【陈敬雷】
视频特色: 前沿技术深度解析,把握行业脉搏
揭秘 DeepSeek、Sora、GPT-4 等多模态大模型的技术底层逻辑,详解 Transformer 架构如何突破传统神经网络局限,实现长距离依赖捕捉与跨模态信息融合。
对比编码预训练(BERT)、解码预训练(GPT 系列)及编解码架构(BART、T5)的技术差异,掌握大模型从 “理解” 到 “生成” 的核心逻辑。
实战驱动,掌握大模型开发全流程
提示学习与指令微调:通过 Zero-shot、Few-shot 等案例,演示如何用提示词激活大模型潜能,结合 LoRA 轻量化微调技术,实现广告生成、文本摘要等场景落地(附 ChatGLM3-6B 微调实战代码)。
人类反馈强化学习(RLHF):拆解 PPO 算法原理,通过智谱 AI 等案例,掌握如何用人类偏好优化模型输出,提升对话系统的安全性与实用性。
智能涌现与 AGI 前瞻,抢占技术高地
解析大模型 “智能涌现” 现象(如上下文学习、思维链推理),理解为何参数规模突破阈值后,模型能实现从 “量变” 到 “质变” 的能力跃升。
前瞻通用人工智能(AGI)发展趋势,探讨多模态模型(如 Sora)如何推动 AI 从 “单一任务” 向 “类人智能” 进化,提前布局未来技术赛道。

推荐算法系统实战全系列精品课【陈敬雷】
视频特色: 首先推荐系统不等于推荐算法,更不等于协同过滤。推荐系统是一个完整的系统工程,从工程上来讲是由多个子系统有机的组合,比如基于Hadoop数据仓库的推荐集市、ETL数据处理子系统、离线算法、准实时算法、多策略融合算法、缓存处理、搜索引擎部分、二次重排序算法、在线web引擎服务、AB测试效果评估、推荐位管理平台等,每个子系统都扮演着非常重要的角色,当然大家肯定会说算法部分是核心,这个说的没错,的确。推荐系统是偏算法的策略系统,但要达到一个非常好的推荐效果,只有算法是不够的。比如做算法依赖于训练数据,数据质量不好,或者数据处理没做好,再好的算法也发挥不出价值。算法上线了,如果不知道效果怎么样,后面的优化工作就无法进行。所以AB测试是评价推荐效果的关键,它指导着系统该何去何从。为了能够快速切换和优化策略,推荐位管理平台起着举足轻重的作用。推荐效果最终要应用到线上平台去,在App或网站上毫秒级别的快速展示推荐结果,这就需要推荐的在线Web引擎服务来保证高性能的并发访问。这么来说,虽然算法是核心,但离不开每个子系统的配合,另外就是不同算法可以嵌入到各个子系统中,算法可以贯穿到每个子系统。
从开发人员角色上来讲,推荐系统不仅仅只有算法工程师角色的人就能完成整个系统,需要各个角色的工程师相配合才行。比如大数据平台工程师负责Hadoop集群和数据仓库,ETL工程师负责对数据仓库的数据进行处理和清洗,算法工程师负责核心算法,Web开发工程师负责推荐Web接口对接各个部门,比如网站前端、APP客户端的接口调用等,后台开发工程师负责推荐位管理、报表开发、推荐效果分析等,架构师负责整体系统的架构设计等。所以推荐系统是一个多角色协同配合才能完成的系统。
下面我们就从推荐系统的整体架构以及各个子系统的实现给大家深度解密来自一线大型互联网公司重量级的实战产品项目!!!

自然语言处理NLP原理与实战 视频教程【陈敬雷】
视频特色:《自然语言处理NLP原理与实战》包含了互联网公司前沿的热门算法的核心原理,以及源码级别的应用操作实战,直接讲解自然语言处理的核心精髓部分,自然语言处理从业者或者转行自然语言处理者必听视频!

人工智能《分布式机器学习实战》 视频教程【陈敬雷】
视频特色:视频核心内容有互联网公司大数据和人工智能、大数据算法系统架构、大数据基础、Python编程、Java编程、Scala编程、Docker容器、Mahout分布式机器学习平台、Spark分布式机器学习平台、分布式深度学习框架和神经网络算法、自然语言处理算法、工业级完整系统实战(推荐算法系统实战、人脸识别实战、对话机器人实战)。

上一篇:《GPT多模态大模型与AI Agent智能体》系列一》大模型技术原理 - 大模型技术的起源、思想
下一篇:DeepSeek大模型技术系列五》DeepSeek大模型基础设施全解析:支撑万亿参数模型的幕后英雄

http://www.dtcms.com/a/268095.html

相关文章:

  • 开源!RAG竞技场(2):标准RAG算法
  • 编程语言艺术:C语言中的属性attribute笔记总结
  • RPC/gRPC入门学习
  • GM DC Monitor和WGCLOUD,能比吗?
  • 深入理解原子类与CAS无锁编程:原理、实战与优化
  • 【大模型LLM】 Megatron-LM 大模型训练框架吞吐率计算吞吐率优化策略
  • Rust实战:中医丹方智能管理系统
  • ipmitool 使用简介(ipmitool sel list ipmitool sensor list)
  • WebRTC 的 ICE candidate 协商
  • 【卫星语音】基于神经网络的低码率语音编解码(ULBC)方案架构分析:以SoundStream为例
  • 开关电源抄板学习
  • linux chrome浏览器打不开了
  • 线程——基础全解
  • 第一个Flink 程序:词频统计 WordCount(流处理)
  • Peek-Ubuntu上Gif录制工具-24.04LTS可装
  • rxcpp--composite_subscription
  • Kotlin lazy 委托的底层实现原理
  • bottles安装网易云出现的问题02任务卡死没法关闭
  • 【AI大模型】Spring AI 基于mysql实现对话持久存储详解
  • QT6 源(157)模型视图架构里的列表窗体视图 QListWidget :属性,成员函数,槽函数与信号函数,以及源代码带注释。
  • 【运算放大器专题】基础篇
  • 11.进程间通信
  • nginx的使用
  • Qt:QPushButton、QRadioButton、QCheckBox
  • 数据结构:数组:反转数组(Reverse the Array)
  • SQL Server从入门到项目实践(超值版)读书笔记 20
  • 二进制安全-汇编语言-02-寄存器
  • CPT208-Human-Centric Computing: Field Study and Analytics实地研究与分析
  • 【网络安全基础】第六章---Web安全需求
  • 小菜狗的云计算之旅,学习了解rsync+sersync实现数据实时同步(详细操作步骤)