当前位置: 首页 > news >正文

NeurIPS2025 |TrajMamba:编码器 + 双预训练,智能交通轨迹学习难题突破!

本篇论文解读使用的论文原文,由作者提供~前段时间小时介绍了一篇NeurIPS2025的优秀论文~发布不久后,作者看到后主动联系到了小时,表明传在arxiv的版本太老旧了,怕产生误导,所以小时当时发布不久就下架了~因此作者特意在国庆休假期间更新了arxiv上的论文版本~今天小时给大家重新介绍一下这篇中稿顶会的优秀论文~

重新介绍一下,本篇论文来自NeurIPS2025,最新前沿时序技术~针对车辆 GPS 轨迹的轨迹学习,提出了TrajMamba 模型,解决轨迹学习中 “提取出行目的计算量大” 和 “轨迹冗余点影响效率与质量” 两大核心问题,在多个下游任务中实现了精度与效率的双重超越。

重新整理以及补充了2025顶会时序合集,整合了更完整的“2025顶会时序合集”,包含论文及代码,无偿分享给大家~需要的可以在宫🀄蚝“时序大模型”回复“资料”自取~

文章信息

论文名称:TrajMamba: An Efficient and Semantic-rich Vehicle Trajectory Pre-training Model

论文作者:Yichen Liu, Yan Lin, Shengnan Guo, Zeyu Zhou, Youfang Lin1, Huaiyu Wan

最新论文传送门:https://arxiv.org/abs/2510.17545

图片

研究背景

车辆 GPS 轨迹以(位置,时间)对序列形式记录车辆移动过程,蕴含移动模式(如转弯、加速)、出行目的(如通勤、购物)等关键出行语义,可支撑智能交通系统(ITS)中的多项核心任务,包括轨迹预测、行程时间估计、异常检测、轨迹相似度计算与聚类等。随着 GPS 轨迹数据量激增,高效提取语义信息的轨迹学习模型成为 ITS 构建的关键需求。现有的技术还存在瓶颈:

  • 出行目的提取计算负担重:出行目的依赖轨迹途经道路的功能(如高速路、住宅区道路)与周边 POI(兴趣点,如办公楼、公园)的属性,但这些信息多以文本形式(如道路名称、POI 地址描述)存在。现有研究虽尝试整合语言模型(LMs)提取文本语义,但 LMs 规模远大于传统轨迹模型,会显著增加计算成本。

  • 轨迹冗余点影响效率与质量:实际 GPS 轨迹采样频率高,易包含冗余点(如车辆停车、匀速行驶时的重复记录),不仅降低编码效率,还会干扰轨迹嵌入质量。传统轨迹压缩方法(如 Douglas-Peucker、Visvalingam-Whyatt)依赖规则或几何逻辑,时间复杂度高,且无法自适应学习关键信息,缺乏灵活性。

因此提出了TrajMamba模型,以解决上述问题。

图片

模型框架

图片

图片

TrajMamba 通过 “编码器 + 双预训练” 架构,同时实现语义提取与效率优化,具体包括三大核心部分

1.Traj-Mamba 编码器:联合 GPS 与道路视角的运动模式捕捉

结构基础:基于 Mamba2 结构,由 L 层堆叠的 Traj-Mamba 块组成,每个块包含 GPS-SSM(GPS 视角选择性状态空间模块)与 Road-SSM(道路视角选择性状态空间模块),二者均为多输入选择性 SSM,可实现线性时间复杂度的长时时空关联捕捉,避免 Transformer 类模型的二次复杂度问题。

输入特征处理

  • GPS 视角特征:提取每个轨迹点的 GPS 坐标(经纬度)、相对起始时间差(Δt)、时间戳(分钟级),并计算速度、加速度、移动角度等高阶运动特征,形成 GPS 视角特征序列;通过线性层与傅里叶编码层,将这些特征映射为维度为 E/2 的 GPS latent 向量序列。

  • 道路视角特征:提取每个轨迹点所在道路的 ID、星期、小时、分钟等信息,通过索引嵌入层()与线性层,映射为维度为 E/2 的道路 latent 向量序列。

输出融合:每层 Traj-Mamba 块通过点积门控机制实现 GPS 与道路视角特征的交互,最后一层块输出的与 经拼接、均值池化,得到最终的轨迹嵌入向量。

2. 出行目的感知预训练(Travel Purpose-aware Pre-training):无额外开销的语义融入

核心目标:在不增加嵌入计算负担的前提下,将出行目的语义整合到轨迹嵌入中。

实现流程

  • 道路与 POI 视角嵌入生成:先用共享预训练文本编码器(如 OpenAI text-embedding-3-large)处理道路文本描述与 POI 文本描述,生成初始文本嵌入;再结合轨迹起点 / 终点的全局信息、道路 / POI 的邻域局部信息(如 300 米内邻接 POI),通过聚合函数更新嵌入,最终经 2 层 Mamba2 块与均值池化,得到道路视角嵌入与 POI 视角嵌入 。

  • 对比学习对齐:以 Traj-Mamba 编码器输出的轨迹嵌入为锚点,道路 / POI 视角嵌入为正样本,其他轨迹的道路 / POI 视角嵌入为负样本,采用 InfoNCE 损失(温度参数可优化)构建损失函数,实现轨迹嵌入与出行目的语义的对齐。预训练后固定编码器权重,作为 “教师模型”。

3. 知识蒸馏预训练(Knowledge Distillation Pre-training):可学习的轨迹冗余压缩

核心目标:通过可学习机制识别关键轨迹点,去除冗余,生成高效且语义完整的压缩轨迹嵌入。

实现流程

  • 掩码生成器(Mask Generator):先预处理过滤显式冗余点(如车辆停车、同路段匀速行驶的中间点);再将预处理后的轨迹输入可学习掩码生成器,通过稀疏随机门(含二进制偏置参数 μ)生成掩码 m,筛选关键点点(如起点、终点、转弯点),得到压缩轨迹。

  • 师生模型对齐:用教师模型权重初始化 “学生模型”(新的 Traj-Mamba 编码器),将压缩轨迹输入学生模型生成压缩嵌入;通过 MEC 损失(最大化熵编码,保证压缩嵌入保留全轨迹信息)与掩码损失(约束压缩轨迹长度,确保效率)构建总损失,实现学生模型嵌入与教师模型全轨迹嵌入的对齐。

实验数据

图片

图片

图片

数据集:采用滴滴发布的两个真实出租车轨迹数据集(成都、西安),预处理后成都含 14 万条轨迹(1.88 亿个点)、4315 个道路段、1.24 万个 POI,西安含 21 万条轨迹(1.83 亿个点)、3392 个道路段、0.39 万个 POI;数据集按 8:1:1 划分为训练、验证、测试集,时间上按出发顺序划分。

下游任务:选择三大典型任务验证性能 —— 目的地预测(DP,预测轨迹终点的 GPS 坐标或道路段)、到达时间估计(ATE,预测未完成轨迹的到达时间)、相似轨迹搜索(STS,从候选集中找到与查询轨迹最相似的轨迹)。

基线模型:对比 9 个主流轨迹学习模型,包括 RNN 类(t2vec、Trembr)、Transformer 类(CTLE、Toast、START)、对比学习类(TrajCL、LightPath、MMTEC)、多模态融合类(JGRM)。

超参数:Traj-Mamba 的最优超参数为 L=5(Traj-Mamba 块层数)、E=256(嵌入维度)、N=32(SSM 状态维度)、H=4(SSM 头数);双预训练均执行 15 个 epoch,实验重复 5 次取均值。

图片

图片

重点实验结果

(1)精度性能:全面超越基线

  • 目的地预测(DP):在 GPS 预测(RMSE、MAE)与道路段预测(Acc@1、Acc@5、Recall)指标上均最优。以成都数据集为例,与次优模型 JGRM 相比,GPS 预测 RMSE 从 215.99 米降至 129.47 米(降低 45.16%),道路段 Acc@1 从 54.27% 提升至 58.21%(提升 9.30%);即使在 “不微调”(仅更新预测头)设置下,仍比 JGRM 的道路段 Acc@1 提升 27.47%。

  • 到达时间估计(ATE):成都数据集 RMSE 从 JGRM 的 65.24 秒降至 50.17 秒(降低 32.35%),MAE 从 31.52 秒降至 17.73 秒;西安数据集 RMSE 从 84.49 秒降至 74.75 秒(降低 23.44%),且 “不微调” 设置下性能优势更明显,证明预训练的有效性。

  • 相似轨迹搜索(STS):成都数据集 Acc@1 达 96.53%(JGRM 为 86.63%),Mean Rank 从 1.97 降至 1.15;西安数据集 Acc@1 达 97.97%(JGRM 为 86.97%),Mean Rank 从 1.62 降至 1.07,且对无直接轨迹级表示的基线(如 CTLE、Toast)优势显著。

(2)效率性能:轻量化且快速

  • 模型大小:Traj-Mamba 在成都 / 西安数据集的模型大小为 5.407/5.182MB,与轻量 RNN 模型(t2vec:1.641/1.415MB、Trembr:5.752/5.301MB)相当,远小于 Transformer 类模型(START:15.928/15.026MB、JGRM:23.088/20.827MB)。

  • 嵌入时间:成都数据集嵌入时间仅 1.721 秒,西安为 3.918 秒,是 JGRM(94.048/251.898 秒)的 1/50 以上,也优于多数基线(如 CTLE:16.736/38.318 秒、LightPath:25.726/61.404 秒)。

  • 训练时间:虽训练时间(成都 3.225 分钟 /epoch、西安 7.273 分钟 /epoch)并非最短,但预训练不增加嵌入阶段负担,而嵌入效率是真实场景的关键需求,因此额外训练时间具有性价比。

3. 消融实验与模型分析

  • 组件必要性验证:移除 Traj-Mamba 块(替换为 vanilla Mamba2 或 Transformer)、出行目的感知预训练(替换为重构任务)、知识蒸馏预训练后,模型在三大任务中性能均下降。例如,“无压缩”(w/o Compress)变体的 DP 任务 GPS RMSE 升至 174.65 米,STS 任务 Mean Rank 升至 3.88,证明压缩对语义保留与效率的重要性。

  • 掩码生成器优势:对比传统压缩方法(如 Douglas-Peucker,MG-Trans-DP 变体)与直接下采样(MG-Trans-DS 变体),Traj-Mamba 的可学习掩码生成器能更精准保留关键点点(如起点、终点),DP 任务 Acc@1 比 MG-Trans-DP 高 9.38%,STS 任务 Mean Rank 低 0.23。

  • 超参数与可扩展性:嵌入维度 E 对性能影响最大,E=256 时精度与效率平衡最优;模型在仅用 20% 训练数据时,DP 任务 Acc@1 仍比 JGRM 高 5% 以上,证明良好的小样本适应性。

图片

图片

小小总结

文章提出的TrajMamba 是一款高效且语义丰富的车辆轨迹预训练模型。提出了 Traj-Mamba 编码器,首次联合 GPS 与道路双视角,以线性时间复杂度捕捉轨迹运动模式,解决传统模型 “复杂度高” 或 “视角单一” 的问题。

设计了出行目的感知预训练方案,通过文本编码器与对比学习,在不增加嵌入计算负担的前提下,实现出行目的语义与轨迹嵌入的对齐。 提出了基于知识蒸馏的可学习轨迹压缩机制,通过掩码生成器与师生模型对齐,兼顾冗余去除与语义保留,提升编码效率。

关注小时,持续学习前沿时序技术!

http://www.dtcms.com/a/513454.html

相关文章:

  • (论文速读)光伏缺陷检测中的快速自适应:集成CLIP与YOLOv8n实现高效学习
  • 福州高端建站网站用什么平台开发
  • 网站建设许可证湖南省建设厅厅长鹿山
  • 唐山网站建设公司乐清外贸网站建设
  • 轻淘客一键做网站wordpress 搬家 文章 404
  • BigDecimal对象比较时的注意事项
  • 分答网站seo短视频保密路线
  • 刷东西网站怎么做商丘网约车都有哪些平台
  • cms网站贵阳网站建设 赶集
  • 位运算符的灵活使用
  • 普通网站 用多说微信文章链接wordpress
  • 织梦网站上传保存文档广州番禺地图全图
  • 网站建设來超速云建站泉州模板建站源码
  • html网站分页怎么做网站优化搜索
  • wordpress字体自适应wordpress js优化
  • 网站开发行业标准不会写程序如何建网站
  • 朴实无华cnn 识别加工线段 删除标注线段
  • 广州网站建设联系新科海珠科技部网站建设合同
  • 宿迁网站优化排名网站集约化后如何建设
  • 物流网站做代理国内外高校门户网站建设的成功经验与特色分析
  • 运放电源配置
  • 呼伦贝尔市建设网站建设工程合同属于
  • 告别“读字”,开始“看图”:AI正在用人类的方式学习“阅读”
  • 网站建设管理的规章制度公司网站备案材料
  • 建设网站有何要求ios企业开发者账号
  • 正邦设计面试珠海网站优化
  • 3.cuda执行模型
  • 小兔自助建站宽屏网页设计尺寸
  • 微网站移交北京建设管理有限公司官网
  • 网站源码检测推广引流最快的方法