当前位置: 首页 > news >正文

【基座模型】Qwen3报告总结

Github: Qwen3

数据

1、预训练数据

(1)扩展语言类型和数据领域种类。
(2)数据合成:使用Qwen2.5-Vl合成读取PDF文件数据、使用Qwen2.5-math和Qwen2.5-coder合成数学想代码相关数据。

2、后训练数据

(1)长COT冷启动数据:
包含数学、代码、逻辑推理、通用STEM问题等,每个query都配备一个可验证的参考单或者基于代码的测试用例。排除了难验证(涉及多个子问题或者通用文本生成能力)和不需要COT就可以回答的问题。
(2)RL推理数据
收集3995个在冷启动没有出现过的覆盖范围广泛的数据。
(3)思考融合
构建non-thinking的SFT数据,将非思考模式融入进去。使用长思考和短思考SFT数据共共同训练。其中思考数据是使用第二阶段模型,对第一阶段模型拒采样得到。短思考数据涉及多个领域,例如:代码、数学、指令遵循、多语言、创意写作等等。设置了/think和/no_think作为模式切换标记。
(4)通用RL场景
提升通用场景泛化能力,建立了20多项不同的任务以及评分标准。主要增强:指令遵循能力、格式遵循能力、偏好对其、Agent调用工具能力、特定场景能力。

模型架构

1、模型架构集成Qwen2.5的MOE架构,不同的是设置了独立MoE模型共有128位专家,每个token有8位激活专家,而不是像Qwen2.5那样的共享专家。

训练

1、预训练

(1)第一阶段,该模型在大约30万亿个令牌上进行训练,以建立一个强大的通用知识基础,4096token长度。
(2)第二阶段,它将进一步接受知识密集型数据的训练,以增强科学、技术、工程和数学和编码等领域的推理能力,4096token长度。
(3)第三阶段,该模型在长上下文数据上进行训练,以将其最大上下文长度从4,096增加到32,768个令牌。3/4是长token,1/4是短token。

2、后训练

(1)培养思考能力:
第一个阶段使用Long-COT作为冷启动数据微调。第二步使用RL在数学和代码任务微调。GRPO时候,使用大批量和每个查询的多rollout,以及off-policy训练来提高样本效率,对训练过程是有益的。
(2)整合短思考模式到模型中:
第三步使用长COT和短COT的SFT数据,一起微调保持可具备长短COT的能力。第四步在通用任务上RL,保持通用泛化能力

3、蒸馏小模型

分别使用大模型离线和在线方式蒸馏给小模型效果比RL更好。

http://www.dtcms.com/a/285815.html

相关文章:

  • 告别 addEventListener
  • effective python 条款11 学会对序列做切片
  • 人脸检测算法——SCRFD
  • 智能Agent场景实战指南 Day 16:Agent记忆系统设计
  • 解决 Selenium 页面跳转过快导致的内容获取问题:从原理到实践
  • 基于ROS2进行相机标定,并通过测试相机到棋盘格之间的距离进行验证
  • 大模型格式
  • (一)Eshop(异常处理中间件)
  • 工业数据集成中间件工具OPC Router详细介绍
  • Prompt:开启与AI高效对话的钥匙
  • pycharm windows/linux/mac快捷键
  • Ubuntu18.04开机启动执行脚本
  • 算法-查找算法
  • Git分支管理与Stash技巧:从基础到高级工作流详解
  • C++ - 仿 RabbitMQ 实现消息队列--需求分析与模块设计
  • # Redis-stable 如何在Linux系统上安装和配置
  • 文件流导出文件
  • 小米深圳大厦正式开园,为全球化竞争注入新动能
  • Golang 中 JSON 和 XML 解析与生成的完全指南
  • 一段黄昏小感
  • Linux地址空间
  • 论文分享 | LABRADOR:响应引导的针对物联网设备的黑盒模糊测试
  • 基于ASP.NET+SQL Server的网站登录注册功能设计与实现
  • 软件工程中的《资本论》
  • 文档处理控件TX Text Control系列教程:使用 C# .NET 将二维码添加到 PDF 文档
  • stack and queue 之牛刀小试
  • 【LeetCode 热题 100】199. 二叉树的右视图——(解法一)BFS
  • PDF批量拆分、合并、转图、加密一站式解决方案
  • 文件上传 ,显示文件列
  • 区别下IO多路复用,reactor,事件循环(EventLoop),Epoll这几个的概念以及之间的关系