纯视觉SOTA!华科小米推出ReCogDrive:结合VLM和强化学习的端到端自动驾驶框架
摘要
端到端自动驾驶的研究目前越来越火热,现有方法通过视觉语言模型(VLM)来解决其在长尾场景中性能降低的问题,但是仍然存在一些局限性。本文提出了ReCogDrive,它将VLM与基于扩散的轨迹规划器相结合,并且采用三阶段训练范式。在NAVSIM上的大量实验表明,ReCogDrive在没有激光雷达输入的情况下实现了最先进的闭环指标。
©️【深蓝AI】编译
尽管端到端自动驾驶已经取得了显著进展,但是其性能在罕见和长尾场景中显著降低。最近的方法尝试通过利用视觉语言模型(VLM)的丰富世界知识来应对这一挑战,但是这些方法存在一些局限性:(1)VLM的预训练数据和现实世界驾驶数据之间存在显著的域差异;(2)离散语言空间和连续行为空间之间的维度不匹配;(3)模仿学习倾向于捕获数据集中存在的平均行为,这可能是次优甚至危险的。本文提出了ReCogDrive,这是一种将VLM与扩散规划器相结合的自动驾驶系统,它采用三阶段范式进行训练。在第一阶段,使用大规模的驾驶问答数据集来训练VLM,缓解通用内容和现实世界驾驶场景之间的域差异。在第二阶段,采用基于扩散的规划器进行模仿学习,将潜在语言空间的表示映射为连续驾驶行为。最后,在NAVSIM非反应式仿真器中使用强化学习对扩散规划器进行微调,使模型能够生成更安全、更类人的驾驶轨迹。本文在面向规划的NAVSIM基准上评估了所提出的方法,结果表明,本文方法实现了89.6的PDMS,并且建立了一个新的基准,它比先前纯视觉的SOTA方法提高了5.6 PDMS。
图1|ReCogDrive概览©️【深蓝AI】编译
自动驾驶旨在为车辆预测平稳、舒适、无碰撞的轨迹,目前已经取得了重大进展。最近的端到端自动驾驶系统将感知、预测和规划模块统一到一个联合优化的流程中,它在开环评估下展现出令人印象深刻的性能。然而,这些系统往往无法泛化到长尾场景中,该场景的数据非常有限,其驾驶条件与训练过程中遇到的驾驶条件存在显著差异。
最近的研究通过引入VLM来解决长尾挑战,VLM在大规模的互联网数据集上进行预训练,展现出很强的泛化能力和丰富的世界知识。值得注意的是,一些研究(例如DriveVLM和EMMA)利用预训练的VLM以文本形式来预测未来轨迹,从而将运动规划任务重新表述为语言建模问题。这些方法利用VLM的自回归特性,通过逐步生成下一个标记来预测未来轨迹。具体而言,VLM在自动驾驶中的应用可以分为两种主要方法:(1)双系统方法,它通过VLM生成低频轨迹或者高级命令来引导端到端驾驶系统;(2)单系统方法,其中独立的VLM直接预测未来轨迹,并且能够以端到端的方式进行优化。
然而,将在通用域数据上预训练的VLM直接应用于自动驾驶会带来一些局限性:(1)VLM通常是在互联网上的图像-文本数据集上预训练的,这些数据集缺乏对特定驾驶场景和知识的覆盖;(2)潜在语言空间和运动规划所需的连续行为空间之间存在很大差异。此外,自回归解码过程偶尔会导致输出崩溃,生成不连贯或者无效的轨迹;(3)大多数现有方法严重依赖于行为克隆,它倾向于记忆训练数据并且优化为平均行为方式。
本文提出了ReCogDrive,这是一种新型的端到端自动驾驶系统,它将来自VLM的认知与强化学习增强的扩散规划器相结合。与先前的单系统方法不同,本文方法将VLM的强大泛化能力与扩散模型的生成能力相结合,以预测平滑且连续的轨迹。首先,从开放数据集和自动标注流程中采集并且构建310万个高质量的驾驶问答对。本文使用此数据集在驾驶域中对VLM进行预训练,以促进其适应现实世界驾驶场景。随后,本文引入了一种扩散规划器,它缩小了潜在语言空间和连续行为空间之间的差异,将高级表示映射为低级驾驶行为。这种设计有效地保留了VLM的泛化能力。为了进一步提高轨迹质量,本文通过仿真器辅助的强化学习对扩散模型进行微调。与仅仅复现专家演示的模仿学习不同,强化学习使模型能够在NAVSIM仿真器的辅助下主动探索驾驶行为,并且生成更安全、更稳定、更舒适的轨迹。
本项工作的主要贡献如下:
1)本文提出了ReCogDrive,这是一种新型的端到端自动驾驶系统,在三个方面具备了驾驶认知功能:(1)VLM中的固有世界认知;(2)从构建的高质量驾驶数据中获得的驾驶域认知;(3)通过强化学习从多轨迹探索中获得的泛化认知;
2)本文提出了一种三阶段训练框架。首先,VLM在大规模的驾驶问答数据集上进行微调,以适应驾驶场景。接着,通过行为克隆来训练扩散模型,以生成高保真轨迹。最后,提出了仿真器辅助的强化学习来生成更安全、更稳定的轨迹;
3)本文在NAVSIM基准上进行大量的实验。结果表明,本文方法实现了最先进的PDMS得分89.6,这突出了其有效性和现实世界可行性。
3.1 问题定义
给定自车状态例如,自车速度和自车加速度)、传感器输入
和导航信息
,自动驾驶任务旨在预测未来几秒内平滑且无碰撞的轨迹。传统的端到端驾驶算法
表述为:
其中,为未来路径点和航向的序列。尽管一些方法已经展现出很强的有效性,但是其黑盒性质阻碍了模型的可解释性,并且它们往往无法泛化到现实世界驾驶场景中罕见的极端情况。
最新的工作利用了视觉语言模型的丰富世界知识和强大因果推理能力来实现自动驾驶。VLMs以文本形式输出轨迹,并且生成显式推理过程:
然而,观察到语言格式的轨迹空间和连续行为空间之间存在固有的不匹配,并且自回归解码过程可能会出现输出崩溃,导致生成错误的轨迹。
3.1 扩散策略
去噪扩散概率模型(DDPM)通过反向一个固定的马尔可夫噪声过程来学习生成模型,该过程逐步使用高斯噪声来破坏数据。给定一条清晰的轨迹,正向过程定义为:
其中,为时刻的噪声标准差。在推理过程中,通过初始化并且迭代去噪来生成轨迹:
将轨迹路径点表示为,该框架自然地扩展到轨迹级策略生成,其中去噪网络
学习将带有噪声的运动规划优化为平滑轨迹。
本节介绍了ReCogDrive的架构,并且提出了三阶段训练范式,如图2所示。
图2|模型架构和训练流程©️【深蓝AI】编译
首先,构建了一个包含310万个高质量问答对的驾驶数据集,以预训练视觉语言模型,将驾驶特定的认知注入模型中。接着,将预训练的VLM与基于扩散的轨迹规划器相结合,以实现稳定的语言到行为的映射,将潜在语言空间转换为连续行为空间。最后,本节引入了仿真辅助的强化学习,将通过多轨迹探索获得的泛化驾驶认知集成到扩散规划器中。
4.1 驾驶特定的视觉语言预训练
高质量驾驶数据构建:为了使通用VLM适应自动驾驶,采集了各种开源驾驶问答数据集,包括DriveLM、LingoQA、DRAMA和其它九个驾驶数据集。为了确保数据集之间的一致性,将所有边界框标注结果标准化为InternVL3格式,并且引入视图特定的标记来区分不同的相机视角。一些数据集(例如,DRAMA、nuInstruct)依赖于模板化回答,导致语言差异有限。为了提高数据集的质量,使用Qwen2.5-VL重新标注回答,根据建立的标准对每个问答对进行评分,并且删除得分较低的示例,最终获得230万个高质量的问答对。为了提高在各种驾驶场景中的泛化性,本文构建了一个自动标注流程,它利用VLM和人工标注结果为场景描述、关键目标描述、规划解释等任务生成高质量的问答。此外,还加入了665K个LLaVA指令调整数据,以保持VLM的指令遵循能力。
驾驶自适应的视觉语言模型:本文采用InternVL3-8B作为基础模型,该模型采用一种多模态预训练范式,并且在各种基准上展现出令人印象深刻的性能。每帧图像被划分为448×448个图像块和一个448×448个缩略图,并且由InternViT进行编码。像素重组操作和MLP投影器将图像特征压缩为每个图像块包含256个视觉标记,然后将其与文本标记连接并且传入语言头。本文在310万个高质量的驾驶问答对和指令调整数据集上对该模型进行微调。经过训练后,该模型能够生成文本轨迹、推理轨迹
和场景描述
:
其中, 和
为驾驶决策过程提供了可解释性。
4.2 基于扩散的轨迹规划器
尽管自回归范式提供了一种直接使用VLM生成轨迹的方法,但是由于结构化行为空间和语言表示之间的固有差异,该方法存在根本上的局限性。由于浮点数离散化约束,语言空间固有地受到了数值表示中的精度限制。更重要的是,VLM展现出幻觉伪影问题,这降低了它们在安全关键驾驶场景中的可靠性。为此,本文采用了基于扩散的规划器作为行为解码器,从高维语言空间中解码出平滑的轨迹。
给定从高斯分布中获取的带有噪声的轨迹样本 , 其中
表示时间轨迹点的数量, 列方向的维度对应于平面坐标
以及航向角
, 最初通过行为编码器
将该低维表示嵌入到高维特征空间中。为了结合语义先验, 从 VLM 中提取最后一层的隐藏状态
, 其中
表示序列长度。通过平均池化操作, 获得了保留全局上下文信息的压缩语义嵌入
。为了确保轨迹的平滑性, 通过
将历史轨迹编码为高维嵌入
。然后, 将这些嵌入沿着通道维度连接, 作为 DiT 块的输入
:
DiT 块架构包括两个核心组件: 自注意力层和交叉注意力层。自注意力机制实现了路径点查询之间的成对交互, 同时通过自适应层归一化 (AdaLayerNorm) 来动态调节其表示, 这显式地结合了自车状态和时间信息。随后, 交叉注意力层在路径点查询和 VLM 最后一层生成的潜在特征 之间建立一座上下文桥梁。这种分层融合机制有助于高级语义理解与轨迹优化约束的系统结合。最后, 行为解码器生成去噪的连续轨迹:
本文采用 DDPM 调度器作为扩散策略。该基于扩散的机制将离散的语义标记映射到行为空间中, 从而生成平滑且连续的轨迹。本文最小化扩散策略的预测噪声 () 和真值噪声 (
) 之间的均方误差。损失函数定义如下:
其中, 并且
表示条件。此外,没有使用无分类器的引导,以确保生成稳定的轨迹。
4.3 仿真器辅助的强化学习
仅仅依靠模仿学习的方法展现出根本上的局限性,这是因为专家演示可能是多模态的,导致生成冲突的优化结果。如图3(a)所示,当在这种罕见的交叉路口转弯场景中使用多条专家轨迹进行训练时,该模型会采用学习平均轨迹来实现全局最优,这可能会导致不正确或者不安全的操作。因此,即使通过模仿学习训练的扩散规划器在位移方面与专家轨迹非常匹配,它仍然容易发生碰撞或者驶出可行驶区域。
图3|训练范式的比较©️【深蓝AI】编译
一种更直观的方法是让模型通过在仿真环境中驾驶来探索,从而模仿现实世界学习。然而,构建一个完全交互式的闭环仿真器极具挑战性,因此使用 NAVSIM 的非反应式仿真器来评估碰撞、舒适性和其它强化学习指标,如图3(b)所示。扩散策略 可以被作为一种内部的马尔可夫决策过程,它从高斯噪声开始,并且逐步去噪来生成行为序列。具体而言,对轨迹进行采样,并且获取其扩散链。单条轨迹的扩散链表示为:
其中,为去噪步骤的总数。对于该扩散链:
这些轨迹在 NAVSIM 仿真器中进行模拟,它评估了每条轨迹推演的碰撞、可行驶区域合规性和驾驶舒适性,并且返回作为奖励 $r_i$ 的预测驾驶员模型得分 (PDMS)。然后计算组间标准化差异:
扩散链中的每个条件步骤均为高斯策略:
其中,为模型预测的均值,
为(固定的)方差。
因此,整个扩散链 在
下的概率密度为:
最后,计算策略损失,同时加入行为克隆损失以防止探索过程中崩溃:
其中,为早期去噪步骤中缓解不稳定性影响的折扣系数,
为行为克隆损失的权重,
和
为从参考策略
中采样的值。通过仿真辅助的强化学习,扩散规划器能够学习通过探索来预测安全且舒适的轨迹,这超越了单纯的模仿,并且将认知注入本文框架中。
5.1 实现细节
本文选择InternVL3-8B作为基础模型,该模型包括一个300M参数的InternViT视觉编码器和一个7B参数的Qwen2.5大型语言模型,这是因为它在多个评估基准上均实现了很好的性能。初始时通过动态分辨率预处理策略对图像进行处理。在第一阶段,使用混合的3.1M高质量驾驶数据集对VLM进行监督微调(SFT)。在第二阶段,在VLM参数冻结的情况下,通过DDPM训练扩散模型。在第三阶段,使用强化学习进一步优化扩散模型。
5.2 数据集和评估指标
数据集:NAVSIM是一个基于OpenScene的面向规划的自动驾驶数据集。它提供了8个分辨率为1920×1080的相机和一个融合的激光雷达点云,该点云由当前帧和前三帧的五个传感器聚合而成。数据集分为navtrain(1192个训练场景)和navtest(136个评估场景)。本实验将来自navtrain的85109个基于轨迹的问答对与12个开源驾驶问答数据集进行混合以用于训练,这12个开源数据集包括Talk2Car、SUTD、DRAMA、NuScenes QA、DriveGPT4、LingoQA、DriveLM、MAPLM、NuInstruct、CODA-LMM、OmniDrive和Senna,涵盖了从感知和预测到推理和规划的任务。
指标: NAVSIM 基准提供了一个非反应式仿真环境,并且采用预测驾驶员模型
得分 (PDMS) 作为其闭环规划指标:
其中, PDMS 集成了五个子指标: 无过失碰撞 (NC)、可行驶区域合规性 (DAC)、碰撞时间 (TTC)、舒适度 (Comf) 和自车进程 (EP), 以生成一个综合的闭环规划得分。
5.3 主要结果和消融研究
在NAVSIM基准上的实验:表格1展示了ReCogDrive在NAVSIM数据集上与现有方法的比较结果。ReCogDrive的PDMS为89.6,建立了新的基准。值得注意的是,尽管仅依赖相机数据,但是它分别比使用相机和激光雷达输入的DiffusionDrive和WoTE高出1.5和1.2 PDMS。此外,与在NAVSIM轨迹上直接训练的InternVL3和QwenVL2.5基线相比,ReCogDrive将PDMS提高了6.3,这证明了本文三阶段训练范式的有效性。此外,它比先前最先进的纯视觉PARA-Drive高出5.6 PDMS。
表格1|使用闭环指标在NAVSIM navtest上进行性能比较©️【深蓝AI】编译
在ReCogDrive上的消融研究:表格2展示了对于ReCogDrive组件的消融研究。当仅在NAVSIM轨迹数据上训练InternVL3时,该模型的PDMS为83.3。通过大规模的驾驶问答数据使VLM适应驾驶场景,将PDMS提高了2.9。引入扩散规划器以实现连续轨迹预测进一步将PDMS提高了0.6。最后,仿真器辅助的强化学习实现了89.6的PDMS,将PDMS提高了2.8,这证明了所提出的强化学习方案在生成更安全的驾驶行为方面的价值。
表格2|对于ReCogDrive提出组件的消融研究©️【深蓝AI】编译
问答数据对规划性能的缩放律:本文采集了一个大规模、高质量的驾驶问答数据集,以使VLM适应现实世界驾驶场景。如表格3所示,问答对的数量从85k增加到3.2M可以将PDMS从83.3增加到85.3,这证明了驾驶特定预训练的必要性,并且确认了在本文条件下缩放律成立。此外,对整个3.2M数据集进行过滤和重构可以进一步将PDMS提高0.9,达到86.2,这突显了数据质量的重要性。
表格3|问答数据集规模和质量对规划的影响©️【深蓝AI】编译
不同折扣系数的影响:表格4展示了折扣系数对强化学习微调的影响。当
时,所有时间步长对策略梯度的贡献都是相等的,这会放大高度可变的噪声并且破坏学习的稳定性。相比之下,设置
可以将更新集中在更可靠的后续步骤上,并且实现89.6的最佳PDMS。
不同行为克隆损失权重的影响: 表格 5 研究了行为克隆损失权重 的影响。当
时, 行为克隆项太弱, 以至于无法稳定学习, 从而导致训练崩溃。相比之下, 设置
则过于着重于模仿学习, 这限制了策略的改进。最佳折衷是在
时达到, 从而获得最高的 PDMS。
不同最小采样值的影响: 本实验将余弦调度应用于扩散噪声方差 并且将其裁剪到最小值
。将
裁剪到非零最小值会鼓励扩散策略来采样更多样化的轨迹, 但是过大的
会使训练不稳定。设置
实现了 89.6 的 PDMS, 如表格 6 所示。
表格6|不同最小采样值的影响©️【深蓝AI】编译
定性结果:如图4所示,本实验可视化了ReCogDrive在NAVSIM上的感知和规划过程。除了平滑的轨迹预测外,ReCogDrive还生成了描述性的场景摘要和高级驾驶指令。它能够准确地检测出租车和交通信号灯等关键目标,并且利用这些信息为其规划决策提供信息。
图4|ReCogDrive在NAVSIM上的定性结果©️【深蓝AI】编译
本项工作提出了ReCogDrive,这是一个端到端自动驾驶系统,它将VLM与基于扩散的轨迹规划器相结合,并且采用了三阶段训练范式。首先,构建并且整理了一个310万个高质量驾驶问答对数据集,将驾驶特定的认知注入到预训练的VLM中。其次,通过DDPM训练一个基于扩散的轨迹规划器,以将离散的语言表示映射为平滑、连续的轨迹,同时保留了VLM固有的世界认知和驾驶特定的认知。最后,本文强化了扩散策略,以将泛化驾驶认知集成到扩散规划器中。在NAVSIM上的大量实验表明,ReCogDrive在没有激光雷达输入的情况下实现了最先进的闭环指标。