当前位置: 首页 > news >正文

Qwen2.5-VL Technical Report 论文翻译和理解

一、TL;DR

  1. Qwen2.5-VL是QwenVL的最新模型,在视觉识别、精准目标定位、稳健文档解析以及长视频理解等方面实现了重大突破
  2. 引入了动态分辨率处理和绝对时间编码,使其能够处理不同尺寸的图像以及长达数小时的视频,并实现秒级事件定位
  3. 数据集上建立了一个自动化filter的流程,使得模型能够获取高质量数据
  4. 在现实世界场景(如操作计算机和移动设备)中具备推理、工具使用和任务执行能力。可在不同领域实现强大的zero-shot泛化能力
  5. Qwen2.5-VL有三种不同大小的模型,旗舰版Qwen2.5-VL-72B模型与GPT-4o和Claude 3.5 Sonnet等最先进模型相当,同时还保留了Qwen2.5语言大模型的核心语言能力。

二、引言/介绍

现有的MLLMs存在什么问题?

  1. MLLMS在细粒度感知上尚未达到卓越的性能(就是比不过专家模型)
  2. 包括计算复杂性、上下文理解有限、细粒度视觉感知能力差以及在不同序列长度上的表现不一致。

怎么解决这个问题?

  1. 在视觉编码器中实现了窗口注意力机制,以优化推理效率;
  2. 引入了动态FPS采样,将动态分辨率扩展到时间维度,从而能够对不同采样率的视频进行全面理解;
  3. 通过与绝对时间对齐,在时间域升级了MRoPE,从而促进更复杂的时间序列学习;
  4. 策划高质量数据方面做出了巨大努力,用于预训练和有监督的微调,进一步将预训练语料库从1.2万亿个token扩展到4.1万亿个token。

Qwen2.5-VL的显著特点如下:

  1. 强大的文档解析能力:Qwen2.5-VL将文本识别升级为全文档解析,在处理多场景、多语言以及各种内置(手写、表格、图表、化学公式和乐谱)文档方面表现出色。
  2. 跨格式的精准目标定位:Qwen2.5-VL解锁了在检测、指向和计数目标方面的更高精度,支持绝对坐标和JSON格式,以实现高级空间推理。
  3. 超长视频理解和细粒度视频定位:我们的模型将原生动态分辨率扩展到时间维度,增强了对持续数小时的视频的理解能力,同时能够以秒为单位提取事件片段。
  4. 增强的计算机和移动设备代理功能:利用先进的定位、推理和决策能力,为模型在智能手机和计算机上提供卓越的代理功能。

整体网络结构如图1所示,浅显易懂,有几个关键点要注意:

  1. SwinGLU的激活函数+RMSNorm的归一化
  2. 动态分辨率的输入和窗口注意力机制,还有小尺寸在原始分辨率输入
  3. 视频的动态fps采样和特征融合进行计算,还有帧序列的位置编码

三、方法和模型结构

3.1 模型架构

Qwen2.5-VL的整体模型架构由三个组件构成:

  • 大型语言模型(LLM):Qwen2.5-VL系列采用Qwen2.5 LLM作为基础组件并使用对应的预训练权重进行初始化。为了更好地满足多模态理解的需求,我们将一维旋转位置embedding(1D RoPE)修改为与绝对时间对齐的多模态旋转位置嵌入(Multimodal Rotary Position Embedding Aligned to Absolute Time)。

  • 视觉编码器:Qwen2.5-VL的视觉编码器采用重新设计的视觉变换器(ViT)架构。在结构上,我们引入了二维旋转位置嵌入(2D-RoPE)和窗口注意力机制,以支持原生输入分辨率,同时加速整个视觉编码器的计算。在训练和推理过程中,输入图像的高度和宽度在输入ViT之前被调整为28的倍数。视觉编码器通过以14的步长将图像分割成块,生成一组图像特征。

  • 基于MLP的视觉-语言融合器:在将特征序列输入大型语言模型(LLM)之前对其进行压缩。具体而言,将视觉变换器(ViT)提取的原始块特征在空间上相邻的四个块特征分组。这些分组后的特征随后被连接并通过两层多层感知机(MLP),将其投影到与LLM中使用的文本嵌入维度一致的空间。这种方法不仅降低了计算成本,还提供了一种灵活的方式来动态压缩不同长度的图像特征序列。

表1详细列出了Qwen2.5-VL的架构和配置(注意:视觉encoder的大小是一样的,说明视觉编码器现在基本已经到上限了)。

3.2 快速高效的视觉编码器

原生分辨率不一致会导致计算负载不平衡,因此重新设计了VIt架构:

  1. 目的:处理不同大小图像时的二次计算复杂度
  2. 方法:大部分层引入窗口注意力机制(窗口大小:112x112,patch大小:8x8),只有4层是全自注意力机制,小于112x112的区域直接保持原分辨率
  3. 结果:计算成本与patch的数量呈线性关系而不是二次关系

对于位置编码:

  1. 采用二维旋转位置嵌入(RoPE)有效地捕捉二维空间中的空间关系

对于视频输入:

  1. 方法扩展到三维块划分,两个连续的帧被组合在一起,显著减少了输入到语言模型的标记数量

为了简化网络结构:

  1. 采用RMSNorm进行归一化,并使用SwiGLU作为激活函数。这些选择提高了模型视觉和语言组件之间的计算效率和兼容性。

训练阶段:

  1. 训练过程包括几个阶段,包括CLIP预训练、视觉-语言对齐和端到端微调。
  2. 采用原生分辨率的动态采样。根据原始宽高比随机采样图像,提高了模型的适应性,还确保了不同大小视觉数据的稳定和高效训练。

3.3 原生动态分辨率和帧率

Qwen2.5-VL在空间和时间维度上引入了进步,以有效处理多样化的多模态输入。

  1. 在空间领域,Qwen2.5-VL动态地将不同大小的图像转换为具有相应长度的标记序列。与传统的坐标归一化方法不同,我们的模型直接使用输入图像的实际尺寸来表示边界框、点和其他空间特征。这使得模型能够内在地学习尺度信息,提高其处理不同分辨率图像的能力。
  2. 对于视频输入,Qwen2.5-VL引入了动态帧率(FPS)训练和绝对时间编码。通过适应可变帧率,模型能够更好地捕捉视频内容的时间动态。与其他方法不同,这些方法通过引入文本时间戳或使用额外的头部来实现时间定位,我们引入了一种新颖且高效的策略,将MRoPE ID直接与时间戳对齐。这种方法允许模型通过时间维度ID之间的间隔来理解时间的节奏,而无需任何额外的计算开销。

3.4 与绝对时间对齐的多模态旋转position embedding

Qwen2VL的做法:

  1. MRoPE将position embedding分解为三个不同的组成部分:时间、高度和宽度
  2. 对于文本输入,所有三个组成部分使用相同的位置ID,使MRoPE在功能上等同于传统的1D RoPE(Su et al., 2024)。
  3. 对于图像,时间ID在视觉标记中保持不变,而高度和宽度组成部分根据每个token在图像中的空间位置分配唯一的ID。
  4. 在处理视频时,视频被视为帧的序列,时间ID逐帧递增,而高度和宽度组成部分遵循与静态图像相同的分配模式。

问题点:

MRoPE中的时间位置ID与输入帧的数量相关联,这并未考虑到内容变化的速度或视频中事件的绝对时间。

解决方法:

将MRoPE的时间组成部分与绝对时间对齐。如下图所示,通过利用时间ID之间的间隔,模型能够学习不同FPS采样率视频之间的一致时间对齐

四、预训练

4.1 预训练数据

与Qwen2-VL相比:

  1. 数据规模:从1.2万亿个标记增加到约4万亿个标记。
  2. 构建方法:清理原始网络数据、合成数据等。
  3. 包含内容:该数据集涵盖了多种多模态数据,如图像标题、交错的图像-文本数据、光学字符识别(OCR)数据、视觉知识(例如名人、地标、动植物识别)、多模态学术问题、本地化数据、文档解析数据、视频描述、视频定位和基于代理的交互数据。

4.1.1 交错的图像-文本数据

  1. 通过同时提供视觉和文本线索实现上下文中的学习
  2. 即使缺少图像,也能保持强大的纯文本能力
  3. 包含广泛的一般信息。然而,许多可用的交错数据缺乏有意义的文本-图像关联,且通常存在噪声,限制了其在复杂推理和创造性生成中的有用性。

如何得到高质量的交错的图像-文本数据?

我们开发了一种用于评分和清理数据的流程,确保仅使用高质量、相关的交错数据。我们的流程包括两个步骤:标准数据清理(Li et al., 2024e-这篇paper也标记一下,下一步好好看看),然后使用内部评估模型进行四阶段评分系统

评分标准包括:

  1. 纯文本质量;
  2. 图像-文本相关性:较高的分数表示图像与文本之间的联系更强,图像有意义地补充、解释或扩展文本内容,而不仅仅是装饰文本。
  3. 图像-文本互补性:较高的分数反映了图像和文本之间更大的互补信息。每个都应该提供独特的细节,共同构成一个完整的故事。
  4. 信息密度平衡:较高的分数意味着图像和文本之间的信息分布更加平衡,避免过多的文本或图像信息,确保两者之间适当的平衡

这种细致的方法提高了模型在复杂推理和生成连贯多模态内容方面的能力。

4.1.2 grounding/OCR/Video/文档数据

使用绝对位置坐标的grounding数据

技术细节:

  • 为了实现对世界的更准确感知,我们采用原生分辨率训练。与相对坐标不同,Qwen2.5-VL在训练中使用基于输入图像实际尺寸的坐标值来表示边界框和点(这点很重要,尤其是在做数据集的时候要注意)。这种方法使得模型能够更好地捕捉物体的真实尺度和空间关系,从而在对象检测和定位任务中表现更佳。

数据集介绍:

  • 我们开发了一个全面的数据集,包括带有指代表达式的边界框和点,利用了公开可用的数据集和专有数据。我们的方法包括将数据合成为各种格式,包括XML、JSON和自定义格式,采用复制粘贴增强和与现成模型合成的技术。此外,为了增强模型在开放词汇检测中的性能,我们将训练数据集扩展到包含超过10000种目标物体类别。
  • 同时合成了不存在的目标类别,并构建了包含每个目标多个实例的图像数据。为了确保模型在基于点的目标grounding能力方面表现出色,我们构建了一个综合的指向数据集,包括公开可用的和合成的数据。

文档全解析数据

为了训练Qwen2.5-VL,我们合成了大量的文档数据。传统的文档解析方法通常依赖于多个模型来处理布局分析、文本提取、图表解释和插图处理。而Qwen2.5-VL则设计为一个通用模型,具备全面的文档解析、理解和转换能力。具体来说,文档中包含了表格、图表、方程、自然或合成图像、乐谱和化学公式等多种元素,这些元素被统一格式化为HTML,集成了布局框信息和插图描述的HTML标签结构。

OCR数据:为了提升OCR性能,我们收集并整理了来自不同来源的数据,包括合成数据、开源数据和内部收集的数据。我们引入了一个大型多语言OCR数据集,合成了100万张图样本,并处理了600万份表格样本。

视频数据:为了增强模型对不同帧率的视频数据的理解能力,我们在训练过程中动态调整采样频率,使训练数据集的FPS分布更均衡。针对时长超过半小时的长视频,我们构建了多帧连贯描述,并在视频定位任务中,以秒级和小时-分钟-秒-帧格式双重标注时间戳。

Agent数据:为了增强Qwen2.5-VL的感知和决策能力,我们收集了移动、网络和桌面平台的截屏数据,并生成了截屏描述和UI元素定位描述。我们将不同平台的操作统一为具有共享动作空间的函数调用格式。此外,我们还收集和标注了来自开源数据和代理框架在虚拟环境中生成的多步轨迹数据。对于每个动作,我们要求标注者提供全局查询以及该动作前后的截屏,并撰写解释该动作意图的推理内容。

4.2 训练方法

从头开始训练一个视觉变换器(ViT),使用 DataComp和一些内部数据集作为视觉编码器的初始化,同时利用预训练的 Qwen2.5 大型语言模型(LLM)作为 LLM 组件的初始化。如表 2 所示,预训练过程分为三个不同的阶段,每个阶段采用不同的数据配置和训练策略,逐步提升模型的能力。

第一阶段:

  1. 目的:旨在培养 ViT 提取有意义的视觉表示的能力,这些表示可以有效地与文本信息整合。
  2. 方法:只训练视觉变换器(ViT),以提高其与语言模型的对齐程度,
  3. 数据来源:包括图像标题、视觉知识和 OCR 数据

第二阶段:

  1. 目的:加强了模型在视觉和语言模态之间建立更深层次联系的能力,使其能够处理日益复杂的任务
  2. 方法:模型的所有参数都被解冻,并在多样化的多模态图像数据上进行训练,以增强其处理复杂视觉信息的能力
  3. 数据来源:引入了更为复杂且需要推理能力的数据集,如交错数据、多任务学习数据集、视觉问答(VQA)、多模态数学、基于代理的任务、视频理解以及纯文本数据集。

第三阶段:

  1. 目的:进一步提升模型在长序列、视频和基于代理的数据上的推理能力
  2. 方法:增加了序列长度

解决计算负载不平衡的问题:

  1. 原因:不同图像尺寸和文本长度,主要的计算成本来自 LLM 和视觉编码器
  2. 方法:
    1. 视觉编码器的参数相对较少,且我们引入了窗口注意力机制以进一步降低其计算需求
    2. 专注于在不同 GPU 上平衡 LLM 的计算负载,在第一和第二阶段,数据被统一打包到 8192 的序列长度;而在第三阶段,序列长度增加到 32768,以适应模型处理更长序列的能力。

4.3 后训练

Qwen2.5-VL 的后训练对齐框架采用了包括监督微调(SFT)和直接偏好优化(DPO)在内的双阶段优化范式。这种分层对齐策略将参数高效的领域适应与人类偏好蒸馏相结合,通过不同的优化目标解决表示对齐和行为细化问题。

监督微调(SFT):

目的:通过针对性的指令优化,弥合预训练表征与下游任务需求之间的差距

方法:采用 ChatML 格式(Openai, 2024)来构建指令跟随数据,有意识地偏离预训练数据架构,同时保持与 Qwen2.5-VL(Wang et al., 2024e)的架构一致性

作用:三个关键的调整:1)为多模态轮流对话明确标记对话角色;2)将视觉嵌入与文本指令结构化地结合在一起;3)通过格式感知的打包保留跨模态的位置关系。

结果:SFT 实现了高效的知识转移,同时保持了预训练特征的完整性。

4.3.1 指令数据

目的:旨在增强模型在多种模态下的指令遵循能力

规模:大约 200 万条记录,纯文本数据(50%)和多模态数据(50%)各占一半,其中包括图像-文本和视频-文本组合,主要由中文和英文数据组成

数据集内容:针对通用视觉问答(VQA)、图像描述、数学问题解决、编程任务和安全相关查询的专门子集。此外,还构建了针对文档和光学字符识别(Doc and OCR)、定位、视频分析和代理交互的专门数据集

资源消耗:尽管纯文本和多模态条目在数量上持平,但由于嵌入了视觉和时间信息,多模态条目在训练过程中消耗的标记和计算资源要多得多

4.3.2 数据过滤流程

目的:旨在系统地提升监督微调(SFT)数据集的质量

方法:一个两阶段的数据过滤流程

  1. 第一阶段-领域特定分类: 使用Qwen2-VL-Instag对问答(QA)对进行分层分类。该模型将 QA 对分为八个主要领域,如编程和规划,这些领域进一步细分为 30 个细粒度的子类别,这种分层结构便于领域感知和子领域感知的过滤策略,使流程能够针对每个类别的特定特征优化数据清理过程。因此,这提高了监督微调(SFT)数据集的质量和相关性。
  2. 第二阶段-领域定制过滤:它结合了基于规则和基于模型的方法,全面提高数据质量。鉴于文档处理、光学字符识别(OCR)和视觉定位等领域的多样性,每个领域可能需要独特的过滤策略。
    1. 基于规则的过滤:采用预定义的启发式规则来消除低质量或有问题的条目。具体来说,对于与文档处理、OCR 和视觉定位任务相关的数据集,识别并移除重复模式,以防止模型学习过程失真并确保最佳性能。此外,排除包含不完整、截断或格式不正确的响应的条目——这些在合成数据集和多模态环境中很常见。为了保持相关性并维护伦理标准,还丢弃了不相关或可能导致有害输出的查询和答案。这种结构化的方法确保数据集遵守伦理准则并满足特定任务的要求。
    2. 基于模型的过滤:通过利用在 Qwen2.5-VL 系列上训练的奖励模型来完善数据集。这些模型从多个维度评估多模态 QA 对。查询根据复杂性和相关性进行评估,只保留那些具有适当挑战性和上下文相关性的示例。答案根据正确性、完整性、清晰度、与查询的相关性以及是否有帮助进行评估。在视觉定位任务中,特别关注验证视觉信息的准确解释和利用。这种多维度评分确保只有高质量的数据进入 SFT 阶段。

4.3.3 拒绝采样以增强推理能力

目的:补充我们的结构化数据过滤流程

方法:采用拒绝采样作为一种策略来精炼数据集并增强视觉语言模型(VLM)的推理能力

作用:需要复杂推理的任务特别关键,如数学问题解决、代码生成和特定领域的视觉问答(VQA)

拒绝采样:

  1. 从包含真实标注的数据集开始。这些数据集经过精心策划,涵盖了需要多步推理的任务,例如数学问题解决、代码生成以及特定领域的视觉问答。我们使用 Qwen2.5-VL 模型的中间版本,将生成的响应与真实标注进行对比评估。只有当模型的输出与预期答案一致时,相应的样本才会被保留,从而确保数据集仅包含高质量且准确的示例
  2. 增加了额外的限制条件以筛选出不理想的输出结果。具体来说,我们会排除那些出现代码切换、长度过长或存在重复模式的响应。这些标准有助于确保 CoT 推理过程的清晰性和连贯性,这对于下游应用来说至关重要。

五、Experiments

相关文章:

  • KaiwuDB:面向AIoT场景的多模融合数据库,赋能企业数字化转型
  • 【HD-RK3576-PI】Docker搭建与使用
  • 【工具开发教程】通过批量OCR识别PDF扫描件中的文本,给PDF批量重命名,基于WPF和阿里云的实现方案,超详细
  • 【面试经典150题】LeetcCode238·除自身以外数组的乘积
  • python中 “with” 关键字的取舍问题
  • Vagrant 安装指南:从零开始搭建开发环境
  • GPT - 2 文本生成任务全流程
  • 单向链表的实现(C++)
  • 基于贝叶斯估计的多传感器数据融合算法matlab仿真
  • SQL 中的 NULL 处理
  • 7.0 实际案例1-1:读取图片并显示
  • 编程思想——FP、OOP、FRP、AOP、IOC、DI、MVC、DTO、DAO
  • HarmonyOS中的多线程并发机制
  • Docker引擎、Docker守护进程和Docker客户端
  • RocketMQ 中的 MessageStore 组件:消息存储的核心枢纽
  • 不同数据库的注入报错信息
  • ubuntu 2204 安装 vcs 2018
  • L1-5 吉老师的回归
  • Python赋能量子计算:算法创新与应用拓展
  • 浏览器发起调用到服务器的全过程解析
  • 时隔14个月北京怀柔区重启供地,北京建工以3.59亿元摘得
  • 新村回响:一周城市生活
  • 山东14家城商行中,仅剩枣庄银行年营业收入不足10亿
  • 河南省平顶山市副市长许红兵主动投案,接受审查调查
  • 甘肃省政府原副省长赵金云被决定逮捕
  • 七方面118项任务,2025年知识产权强国建设推进计划印发