当前位置: 首页 > news >正文

【2025目标检测】最新论文

2025 目标检测最新进展

第一章 开放世界范式:统一已知与未知对象的检测

在推动人工智能系统走向真实、动态环境的过程中,使其具备检测超出预定义训练类别范围之外物体的能力至关重要。2025年的研究显著地体现了这一“开放世界”范式的成熟,其标志是从解决孤立问题(如零样本、少样本或开集检测)转向构建能够处理不同程度“开放性”的统一框架。这一转变的核心在于,研究界正在从证明特定开放世界任务的可行性,转向开发更具普适性的通用检测器。

这种统一化趋势的背后,是对一个核心技术挑战的共同聚焦:如何鲁棒地学习一个与类别无关的“物体性”(Objectness)度量。无论是已知的杯子还是前所未见的奇特水果,模型首先需要判断“这里有一个物体”,然后才去尝试分类。这种先定位后识别的能力,是构建能够在真实世界中持续学习和交互的智能体的基础。因此,对“物体性”的建模成为了该领域创新的焦点,并催生了新的评估基准和方法论,推动着整个领域从静态数据集上的模式识别,向动态环境中的感知系统演进。

论文标题会议关键技术贡献目标任务基准数据集性能亮点开源代码链接
Open-World Objectness Modeling Unifies Novel Object DetectionCVPR 2025基于变分近似和能量函数的物体性建模OWOD/FSOD/OVDCOCO未知目标召回率提升5.3%-19.4%未提供
UN-DETR: Promoting Objectness Learning via Joint Supervision for Unknown Object DetectionAAAI 2025联合监督学习实例存在分数(IPS)UOD多个UOD基准达到SOTA性能GitHub
OW-OVD: Unified Open World and Open Vocabulary Object DetectionCVPR 2025视觉相似性属性选择(VSAS)与混合不确定性融合(HAUF)OWOD/OVDM-OWODB/S-OWODB未知类别mAP提升15.5GitHub
3D-MOOD: Lifting 2D to 3D for Monocular Open-Set Object DetectionICCV 2025将2D开集检测提升至3D空间单目开集3D检测未明确未明确作者主页提供

1.1 OWOBJ: 开放世界物体性建模统一新对象检测 (CVPR 2025)

  • 技术原理:该研究旨在解决开放世界场景中的一个核心难题:未见过的物体常常被错误地归类为已知类别或被当作背景滤除 1。其核心创新在于,通过变分近似(variational approximation)方法,显式地对一个潜在的、类别无关的“物体性”变量与类别标签的联合分布进行建模。研究发现,在小样本数据下,标准的KL散度损失会导致模型不收敛,并从理论上分析了其根源,进而提出使用动态调整方差的高斯先验来稳定训练过程。此外,为了进一步减少误分类,该方法引入了一种基于能量的间隔损失(energy-based margin loss),它鼓励未知物体的能量分布移动到高密度区域,从而降低其检测的不确定性 1。
  • 模型效果:OWOBJ被设计成一个灵活的插件模块,能够显著提升新对象的检测性能,尤其是在训练数据有限的情况下。在面向开放世界目标检测(OWOD)的COCO数据集上进行评估时,OWOBJ在未知对象的召回率(unknown recall)指标上,相比于当时最先进的PROB和OW-DETR等方法,取得了5.3%至19.4%的绝对增益。同时,它还能将已知对象的检测性能提升约3%至6% 1。
  • 开源代码:在已有的资料中,包括论文摘要和相关列表,均未直接提供该研究的公开代码库链接 1。

1.2 UN-DETR: 通过联合监督促进未知对象检测中的物体性学习 (AAAI 2025)

  • 技术原理:UN-DETR是首个专为未知对象检测(UOD)设计的基于Transformer的端到端框架 5。该工作批判了以往方法在学习“物体性”时孤立地使用定位或分类信息的缺陷 5。其核心设计是引入“实例存在分数”(Instance Presence Score, IPS)来量化一个区域存在物体的概率。为了实现信息的互补,IPS的学习采用了一种新颖的
    联合监督(joint supervision)策略,即同时整合来自位置(localization)和类别(classification)两个潜在空间的特征信号来共同指导IPS的预测 5。此外,该框架还通过一对多(one-to-many)的标签分配策略来增加正样本的监督信号,设计了无偏查询选择(Unbiased Query Selection)机制以提供高质量的初始查询,并提出了一个由IPS引导的后处理流程来过滤冗余框并修正最终的类别预测 6。
  • 模型效果:论文摘要指出,UN-DETR在多个UOD和标准检测基准上进行了全面评估,并取得了当前最先进(state-of-the-art)的性能 5。具体的性能指标数据未在摘要中详述,但其官方代码库中包含了详细的性能表格 10。
  • 开源代码:该研究提供了官方的GitHub代码库,地址为:https://github.com/ndwxhmzz/UN-DETR 5。

1.3 OW-OVD: 统一开放世界与开放词汇的目标检测 (CVPR 2025)

  • 技术原理:这项工作明确地致力于统一开放世界目标检测(OWOD)和开放词汇目标检测(OVD)这两个长期以来并行发展的领域 12。该方法以一个标准的OVD检测器为基础,并对其进行改造以适应OWOD任务的需求。其关键技术贡献包括:1)
    视觉相似性属性选择(VSAS):通过计算已标注区域和未标注区域之间的相似性分布,来识别出那些最具泛化能力的视觉属性;2) 混合属性-不确定性融合(HAUF):在推理阶段,该方法巧妙地将属性相似度与已知类别的分类不确定性相结合,从而推断一个物体属于未知类别的可能性,整个过程保持了OVD检测器原有的标准推理流程 12。
  • 模型效果:在M-OWODB和S-OWODB这两个专门为OWOD设计的基准上,OW-OVD的表现超越了所有现存的SOTA模型。具体而言,它在未知对象召回率(U-Recall)上取得了**+15.3的显著提升**,在未知类别平均精度(U-mAP)上则实现了**+15.5的大幅增长** 12。
  • 开源代码:该研究提供了官方的GitHub代码库,地址为:https://github.com/xxyzll/OW_OVD 12。

1.4 3D-MOOD: 从单目图像到3D空间的开集目标检测 (ICCV 2025)

  • 技术原理:这项研究将开放集合成检测的挑战从2D图像扩展到了更具挑战性的单目3D领域 13。虽然现有资料未深入阐述其技术细节,但从标题可以推断,该方法的核心在于设计一种机制,能够将2D图像上检测到的开集物体或其特征,“提升”(Lifting)到三维空间中,并恢复其3D边界框。这在技术上是一个非适定问题,因为它需要从单一视图中解决深度模糊性。
  • 模型效果:相关的性能指标数据在当前资料中暂缺。
  • 开源代码:该论文的一位作者在其个人出版物列表中明确标注了论文和代码的链接,表明该工作的源代码将会公开发布 15。

第二章 检测变换器(DETR)的架构创新

自提出以来,DETR系列模型已成为目标检测领域的重要范式。2025年的研究表明,学术界对DETR的探索已进入一个新阶段。早期的工作主要集中在解决收敛慢、查询设计和编码器优化等问题,而现在的研究焦点则明显转向了对解码器(Decoder)的深度改造。解码器负责将抽象的物体查询(object queries)逐步精炼为最终的边界框和类别预测,其结构和信息流被认为是决定模型性能的关键瓶颈。

这种对解码器的聚焦,催生了一系列结构性和概念性的创新。例如,通过并行化查询、引入任务导向的专家模块,研究者们正在打破原有级联式解码器的信息处理局限。这不仅是结构上的调整,更反映了一种向动态和自适应计算的转变。模型不再遵循一成不变的僵化流程,而是能够根据输入图像或特定任务,更智能地分配计算资源和调整信息处理路径。这种趋势与更广泛的人工智能领域(如语言模型中的混合专家系统)的发展不谋而合,预示着未来目标检测器将变得更加高效、精准和灵活。

论文标题会议核心架构变革解决的问题关键机制性能增益(相较基线)开源代码链接
MI-DETR: An Object Detection Model with Multi-time Inquiries MechanismCVPR 2025并行多重查询解码器级联解码器的信息流受限并行查询(Parallel Inquiries)相较DINO提升+2.3 APGitHub
Learning Endogenous Attention for Incremental Object DetectionCVPR 2025内生注意力模块与能量任务调制器增量学习中的灾难性遗忘任务专属注意力+动态专家选择在COCO/VOC上验证有效未提供

2.1 MI-DETR: 具备多重查询机制的目标检测模型 (CVPR 2025)

  • 技术原理:该论文指出,现有类DETR模型普遍采用的级联式解码器结构存在一个根本性约束:对象查询只能沿着级联方向序贯更新,这限制了它们从图像特征中学习信息的充分性 16。为了应对自然场景中极端小、严重遮挡或与背景混淆等检测难题,作者提出了一种全新的解码器架构,其核心是
    并行多重查询(Multi-time Inquiries, MI)机制。这一机制允许对象查询并行地、多次地对图像特征进行“探询”,从而学习到更全面的信息,以充分利用图像特征 16。
  • 模型效果:在标准的COCO基准测试上,MI-DETR在多种骨干网络和训练周期下均表现出色。当使用ResNet-50作为骨干网络时,MI-DETR的平均精度(AP)比代表性的DINO模型高出2.3个百分点,比当时的SOTA模型Relation-DETR高出0.6个百分点 16。当换用更强大的Swin-L骨干网络时,其在COCO 2017验证集上的AP达到了
    58.2 19。
  • 开源代码:该研究提供了官方的GitHub代码库,地址为:CQU-ADHRI-Lab/MI-DETR 19。

2.2 LEA: 用于增量式目标检测的内生注意力学习 (CVPR 2025)

  • 技术原理:LEA专注于解决增量式目标检测(IOD)中的灾难性遗忘问题,即模型在学习新类别时会忘记旧类别。它提出了一种新的“从标注到实例对齐”(annotation-to-instance alignment)的范式,以避免因对旧类别数据进行伪标注而引入的噪声和错误 21。该模型主要由两部分构成:1)
    内生注意力模块(Endogenous Attention Modules, EAMs):在训练过程中,每当引入一个新任务(即一组新类别),模型就会增加一个专属的EAM,并训练该模块专注于识别这些新类别;2) 基于能量的任务调制器(Energy-based Task Modulator, ETM):在推理时,ETM会根据输入预测当前最相关的任务ID,并激活相应的EAM进行检测。最后,所有被激活的EAM的检测结果会被合并,从而在检测新类别的同时有效缓解对旧知识的遗忘 21。
  • 模型效果:论文通过在COCO 2017Pascal VOC 2007这两个经典数据集上的大量实验,证明了LEA方法的有效性 21。具体的mAP分数未在摘要中提供,但预计在论文正文中有详细阐述。
  • 开源代码:现有资料中未提供该方法的直接代码库链接 21。

第三章 3D目标检测的进展

3D目标检测是自动驾驶、机器人和增强现实等应用的核心技术。2025年的研究显示,该领域正经历着快速的技术迭代,其主要特征是架构层面的跨界融合与对核心挑战的精细化建模。一个尤为突出的趋势是,研究者们正积极地从其他AI子领域(如自然语言处理中的序列建模)借鉴先进架构,以解决3D数据(特别是点云)处理中的固有难题,如计算复杂度和信息交互效率。

这种架构的“跨界输血”现象,最典型的例子是将状态空间模型(SSM)引入3D检测。这不仅仅是简单地应用一个新模块,而是用一种计算复杂度更低、更擅长处理长序列的架构来替代Transformer中的核心组件,以解决特定于3D检测的性能瓶颈。与此同时,对于成本更低但技术挑战更大的单目3D检测,研究也从过去的启发式方法,转向了更具物理原理的建模。研究者不再满足于简单地预测深度,而是开始对三维到二维的投影过程本身进行更精细的分析,通过学习和补偿几何投影中产生的误差,来提升单目3D感知的鲁棒性和准确性。这标志着该领域正在走向成熟,从依赖黑盒模型转向构建对传感器和物理世界有更深刻理解的系统。

论文标题会议数据模态核心创新关键数据集性能亮点开源代码链接
STATE SPACE MODEL MEETS TRANSFORMER: A NEW PARADIGM FOR 3D OBJECT DETECTIONICLR 2025激光雷达(点云)基于SSM的解码器,同时更新场景和查询特征ScanNetV2/SUN RGB-D在ScanNetV2上较GroupFree提升+5.3 AP50GitHub
MonoDGP: Monocular 3D Object Detection with Decoupled-Query and Geometry-Error PriorsCVPR 2025单目图像几何误差先验与解耦查询KITTI达到SOTA性能GitHub

3.1 DEST: 状态空间模型与变换器的结合 (ICLR 2025)

  • 技术原理:该工作发现,在基于DETR的3D检测器中,由于场景点云特征在解码器中保持固定,导致后续解码器层对性能的贡献递减,从而限制了模型的潜力 22。受状态空间模型(SSM)在线性复杂度下高效建模长序列能力的启发,作者提出了一个名为DEST的新范式。其核心思想是用一个
    交互式状态空间模型(Interactive State Space Model, ISSM)来替代原有的Transformer解码器 24。在这个新框架中,对象查询被建模为SSM的“系统状态”,而场景点云特征则被视为“系统输入”。通过SSM的迭代过程,模型能够以线性计算复杂度
    同时更新查询状态和场景点特征,从而解决了特征固定的问题。该方法还设计了新颖的状态依赖的SSM参数化方法以及适用于点云的双向扫描策略 22。
  • 模型效果:在两个具有挑战性的室内3D检测数据集上,DEST展现了强大的性能。与GroupFree基线相比,它在ScanNet V2上的AP50提升了5.3个点,在SUN RGB-D上的AP50提升了3.2个点。在与更强的VDETR基线结合时,DEST在两个数据集上均创造了新的SOTA纪录 22。
  • 开源代码:该研究在arXiv的论文页面上提供了项目链接:https://github.com/Chuxin-Wang/DEST 27。

3.2 MonoDGP: 具备解耦查询和几何误差先验的单目3D目标检测 (CVPR 2025)

  • 技术原理:MonoDGP是一个基于Transformer的单目3D检测器,它旨在解决从2D图像推断3D边界框时因深度估计不准而导致的核心问题 28。传统方法依赖几何约束来估计深度,但物体表面的视觉特征(如车轮位置)与物体中心的投影高度不一致,会引入误差。MonoDGP没有采用增加复杂的多深度预测分支的方案,而是提出直接学习
    与视角无关的几何误差(perspective-invariant geometry errors),并用这个误差来修正和补偿标准的投影公式 28。此外,该模型还将解码器进行
    解耦,设计了一个仅依赖视觉特征的2D解码器,用于生成纯净的2D先验信息并初始化对象查询,避免了3D任务对初始查询的干扰。一个区域分割头(Region Segmentation Head, RSH)也被用来进一步增强特征 28。
  • 模型效果:在不使用任何额外数据的情况下,MonoDGP在自动驾驶领域权威的KITTI基准测试上取得了SOTA性能 28。
  • 开源代码:该研究提供了官方的GitHub代码库:https://github.com/PuFanqi23/MonoDGP 28。

3.3 其他3D检测研究 (AAAI 2025)

  • NBA3D: 该研究专注于使用LiDAR进行3D稀有对象检测,其核心机制是一种“基于邻居的置信度调整”(Neighbor-Based Confidence Adjustment)方法 31。
  • A New Adversarial Perspective for LiDAR-based 3D Object Detection: 这篇论文为基于LiDAR的3D检测提出了一种新的对抗性学习视角 32。
  • 注:现有资料未提供这两篇论文的详细技术原理和性能数据。

第四章 专业化与新颖检测前沿

随着核心目标检测技术在标准图像数据集上日趋成熟,2025年的研究显示出向专业化和新颖性前沿探索的强劲势头。这不仅意味着将现有技术应用于特定领域,更代表着对“目标检测”这一任务本身的定义正在被拓宽。研究者们开始探索使用非传统传感器(如事件相机)的数据,这类数据能够捕捉到传统相机无法企及的高动态范围和时间分辨率信息。同时,全新的检测任务被提出,例如“未观测物体检测”,它要求模型利用场景的上下文和先验知识来推断那些被遮挡或位于视野之外的物体的存在。

在这些前沿探索中,一个重要的技术趋势是“语义引导检测”的兴起。特别是在无人机图像这类具有独特挑战的场景中,研究者们不再仅仅依赖于视觉特征,而是越来越多地将大型视觉语言模型(VLM)集成为系统的核心组件。VLM不仅用于定义新的检测类别,更被用作提供丰富上下文和关系推理的“语义引擎”。通过语言模型生成的提示(prompt)来指导视觉特征的提取和关联,检测器从一个纯粹的模式识别器,转变为一个能够进行初步推理的智能系统。这一转变预示着未来检测器将更加灵活和强大,能够理解和执行更复杂的、由自然语言描述的感知任务。

论文标题会议新颖性领域关键技术方法相关数据集/基准开源代码链接
Object Detection using Event Camera: A MoE Heat Conduction based DetectorCVPR 2025事件相机视觉基于混合专家(MoE)的热传导检测器EvDET200K未提供
self-prompting analogical reasoning for uav object detectionAAAI 2025无人机图像VLM引导的类比推理VisDrone/UAVDTGitHub
Believing is Seeing: Unobserved Object Detection using Generative ModelsCVPR 2025未观测物体推断利用生成模型进行推理RealEstate10k/NYU Depth v2未提供

4.1 基于事件相机的目标检测:一种MoE热传导检测器 (CVPR 2025)

  • 技术原理:该论文针对事件流(event streams)中的目标检测问题。事件相机通过记录像素亮度的变化来工作,因此在极低光照或高速运动场景下具有天然优势 33。为有效处理这类稀疏且异步的数据,作者提出了一种新颖的、基于
    混合专家(Mixture of Experts, MoE)和热传导(heat conduction)原理的检测器。其架构核心是创新的MoE-HCO模块,该模块通过模拟事件流中的热量传导过程,在多个专家网络间动态分配计算,从而在检测精度和计算效率之间取得了出色的平衡。此外,模型还采用了一个基于IoU的查询选择模块来高效提取特征 33。
  • 模型效果:论文声称,该算法相较于之前基于脉冲神经网络(SNN)、Transformer或传统CNN的方法,在精度和效率的平衡上取得了“惊人的”效果 33。除了算法本身,该工作的一大贡献是发布了一个全新的大规模事件相机目标检测基准数据集——
    EvDET200K,包含10个类别和20万个边界框标注 33。
  • 开源代码:现有资料未直接提供代码链接,但论文附带有补充材料,其中可能包含相关信息 33。

4.2 SPAR: 用于无人机目标检测的自提示类比推理 (AAAI 2025)

  • 技术原理:该研究旨在解决无人机目标检测(UAVOD)中的特有挑战,如物体尺寸小、飞行高度变化大、背景复杂多变等 34。为此,作者提出了SPAR(Self-Prompting Analogical Reasoning)方法。该方法的核心是利用视觉语言模型(CLIP)的强大语义理解能力,从输入图像的特征中生成
    与上下文相关的文本提示(context-aware prompts)。这些富含语义的提示随后被用来指导一个基于图的**类比推理(analogical reasoning)**过程。图的节点由类别级别的提示和像素级别的图像特征构成,通过图卷积网络进行推理,使得模型能够利用物体间的语义关系(例如,“汽车”通常在“道路”上)来辅助检测那些视觉特征不明显的挑战性目标 35。
  • 模型效果:论文指出,在VisDroneUAVDT等主流无人机检测基准上进行的大量实验表明,SPAR的性能超越了传统的检测方法 34。具体的性能指标未在摘要中给出 34。
  • 开源代码:该研究提供了官方的GitHub代码库:lnxwow/Analogical-Reasoning 34。

4.3 眼见为实:使用生成模型进行未观测物体检测 (CVPR 2025)

  • 技术原理:这篇论文开创了一个全新的、极具前瞻性的检测任务——未观测物体检测(unobserved object detection)。其目标是预测那些因遮挡或完全处于相机视野之外而不可见的邻近物体的位置 39。该方法的思路是,利用预训练好的大型生成模型(包括2D/3D扩散模型和视觉语言模型)强大的世界知识和场景理解能力。通过分析当前可见的场景上下文,模型被用来“推断”或“想象”出那些不在画面中但根据常识应该存在的物体。
  • 模型效果:该方法在RealEstate10kNYU Depth v2这两个室内场景数据集上进行了基准测试。实验结果初步验证了使用生成模型来解决未观测物体检测任务的可行性,并取得了令人鼓舞的结果 39。
  • 开源代码:在提供的摘要中未提及开源代码事宜 39。

第五章 综合分析与未来展望

overarching趋势的综合分析

对2025年顶级AI会议中目标检测领域的论文进行梳理和分析后,可以清晰地看到几个相互关联且影响深远的宏观趋势,它们共同描绘了该领域的未来发展蓝图。

  • 统一化的宏大挑战:开放世界、开放词汇和未知对象检测的融合是当前最显著的趋势。该领域正从解决碎片化问题,迈向一个更宏大的目标:构建一个单一、强大的感知模型,使其能够在完全不受限的环境中进行感知、识别和持续学习。这要求模型不仅要能检测已知物体,还要能发现、识别并学习新物体,这是实现通用人工智能感知的关键一步。
  • 架构的混合与演进:Transformer架构的霸主地位正受到来自其他高效架构的挑战与补充。状态空间模型(SSM)在3D检测任务中的成功应用(如DEST)是一个强有力的信号,预示着未来的视觉模型很可能会是混合体。它们将结合类Transformer结构强大的全局上下文建模能力和类SSM结构处理长序列时的线性时间效率,以在性能和效率之间达到新的平衡。
  • 语义成为一等公民:视觉语言模型(VLM)的应用正在超越仅仅作为定义新类别的工具。以SPAR为代表的研究表明,语言正在成为一种提供上下文先验和指导检测器进行推理的强大媒介。随着更强大的基础模型的出现,这种趋势预计将加速,未来的检测器可能会变得更像一个能够理解复杂指令和场景关系的“推理引擎”。
  • 超越边界框的检测:目标检测的定义本身正在被拓宽。对新模态(如事件相机)和新问题(如未观测物体)的探索,反映了该领域正努力构建更全面、更接近人类水平的场景理解能力。这标志着研究的重心正从“在图像中画框”向“理解三维世界中的物体及其相互关系”转变。

未来展望与建议

基于上述分析,可以为该领域未来的研究和实践提供以下方向性建议:

  • 对研究人员的建议
    1. 理论深化:开发更鲁棒、理论基础更扎实的“物体性”模型是开放世界检测走向成熟的关键。
    2. 架构探索:继续探索Transformer与SSM等架构的混合模式在视觉任务中的应用潜力,特别是在处理高分辨率图像和视频等长序列数据时。
    3. 基准建设:构建能够同时评估模型在开放世界、开放词汇、持续学习等多维度挑战下的综合能力的全面基准测试,将是推动领域发展的下一个重要步骤。
  • 对从业者的建议
    1. 技术采纳:开放世界检测器的成熟意味着在动态环境中部署AI系统变得更加可行。工业界应开始评估和采纳这些新技术,以提升其产品在真实世界中的鲁棒性。
    2. 成本效益:单目3D检测技术的进步,尤其是在精度和可靠性上的提升,可能会为某些机器人和增强现实应用降低硬件成本门槛。
    3. 拥抱开源:今年众多SOTA模型(如MI-DETR, UN-DETR, MonoDGP, DEST)都提供了开源代码,这将极大地加速这些先进技术在工业界的落地和二次开发,从业者应积极利用这些资源来加速创新。
引用的著作
  1. Open-World Objectness Modeling Unifies Novel Object Detection - CVPR 2025 Open Access Repository, 访问时间为 七月 23, 2025, https://openaccess.thecvf.com/content/CVPR2025/html/Zhang_Open-World_Objectness_Modeling_Unifies_Novel_Object_Detection_CVPR_2025_paper.html
  2. Open-World Objectness Modeling Unifies Novel Object Detection - CVF Open Access, 访问时间为 七月 23, 2025, https://openaccess.thecvf.com/content/CVPR2025/papers/Zhang_Open-World_Objectness_Modeling_Unifies_Novel_Object_Detection_CVPR_2025_paper.pdf
  3. 52CV/CVPR-2025-Papers - GitHub, 访问时间为 七月 23, 2025, https://github.com/52CV/CVPR-2025-Papers
  4. Piotr Koniusz, 访问时间为 七月 23, 2025, https://www.koniusz.com/
  5. UN-DETR: Promoting Objectness Learning via Joint Supervision for Unknown Object Detection, 访问时间为 七月 23, 2025, https://ojs.aaai.org/index.php/AAAI/article/view/32579/34734
  6. UN-DETR: Promoting Objectness Learning via Joint Supervision for Unknown Object Detection - ResearchGate, 访问时间为 七月 23, 2025, https://www.researchgate.net/publication/390709189_UN-DETR_Promoting_Objectness_Learning_via_Joint_Supervision_for_Unknown_Object_Detection
  7. [2412.10176] UN-DETR: Promoting Objectness Learning via Joint Supervision for Unknown Object Detection - arXiv, 访问时间为 七月 23, 2025, https://arxiv.org/abs/2412.10176
  8. [논문 리뷰] UN-DETR: Promoting Objectness Learning via Joint Supervision for Unknown Object Detection - Moonlight, 访问时间为 七月 23, 2025, https://www.themoonlight.io/ko/review/un-detr-promoting-objectness-learning-via-joint-supervision-for-unknown-object-detection
  9. UN-DETR: Promoting Objectness Learning via Joint Supervision for Unknown Object Detection - ResearchGate, 访问时间为 七月 23, 2025, https://www.researchgate.net/publication/387078750_UN-DETR_Promoting_Objectness_Learning_via_Joint_Supervision_for_Unknown_Object_Detection
  10. ndwxhmzz/UN-DETR - GitHub, 访问时间为 七月 23, 2025, https://github.com/ndwxhmzz/UN-DETR
  11. UN-DETR: Promoting Objectness Learning via Joint Supervision for Unknown Object Detection - arXiv, 访问时间为 七月 23, 2025, https://arxiv.org/html/2412.10176v1
  12. CVPR Poster OW-OVD: Unified Open World and Open Vocabulary …, 访问时间为 七月 23, 2025, https://cvpr.thecvf.com/virtual/2025/poster/32726
  13. ICCV 2025 Accepted Paper List - Paper Copilot, 访问时间为 七月 23, 2025, https://papercopilot.com/paper-list/iccv-paper-list/iccv-2025-paper-list/
  14. ICCV 2025 Statistics - Paper Copilot, 访问时间为 七月 23, 2025, https://papercopilot.com/statistics/iccv-statistics/iccv-2025-statistics/
  15. Publications - Welcome to Yuqian Fu (傅宇倩)'s Homepage, 访问时间为 七月 23, 2025, http://yuqianfu.com/publications/
  16. MI-DETR: An Object Detection Model with Multi-time Inquiries …, 访问时间为 七月 23, 2025, https://openaccess.thecvf.com/content/CVPR2025/html/Nan_MI-DETR_An_Object_Detection_Model_with_Multi-time_Inquiries_Mechanism_CVPR_2025_paper.html
  17. [Literature Review] MI-DETR: An Object Detection Model with Multi-time Inquiries Mechanism - Moonlight, 访问时间为 七月 23, 2025, https://www.themoonlight.io/en/review/mi-detr-an-object-detection-model-with-multi-time-inquiries-mechanism
  18. MI-DETR: An Object Detection Model with Multi-time Inquiries Mechanism - arXiv, 访问时间为 七月 23, 2025, https://arxiv.org/html/2503.01463v1
  19. MI-DETR: An Object Detection Model with Multi-time Inquiries …, 访问时间为 七月 23, 2025, https://paperswithcode.com/paper/mi-detr-an-object-detection-model-with-multi
  20. 自动驾驶&人机交互课题组 CQU-ADHRI-Lab - GitHub, 访问时间为 七月 23, 2025, https://github.com/CQU-ADHRI-Lab
  21. Learning Endogenous Attention for Incremental Object Detection, 访问时间为 七月 23, 2025, https://openaccess.thecvf.com/content/CVPR2025/html/Song_Learning_Endogenous_Attention_for_Incremental_Object_Detection_CVPR_2025_paper.html
  22. State Space Model Meets Transformer: A New Paradigm for 3D Object Detection | Request PDF - ResearchGate, 访问时间为 七月 23, 2025, https://www.researchgate.net/publication/389947219_State_Space_Model_Meets_Transformer_A_New_Paradigm_for_3D_Object_Detection?_tp=eyJjb250ZXh0Ijp7InBhZ2UiOiJzY2llbnRpZmljQ29udHJpYnV0aW9ucyIsInByZXZpb3VzUGFnZSI6bnVsbCwic3ViUGFnZSI6bnVsbH19
  23. STATE SPACE MODEL MEETS TRANSFORMER: A NEW PARADIGM FOR 3D OBJECT DETECTION - OpenReview, 访问时间为 七月 23, 2025, https://openreview.net/pdf/792c4a65e7e9825390ef209e4c0b423b077c8fa1.pdf
  24. arXiv:2503.14493v2 [cs.CV] 19 Mar 2025, 访问时间为 七月 23, 2025, https://arxiv.org/pdf/2503.14493?
  25. State Space Model Meets Transformer: A New Paradigm for 3D …, 访问时间为 七月 23, 2025, https://openreview.net/forum?id=Tisu1L0Jwt
  26. State Space Model Meets Transformer: A New Paradigm for 3D Object Detection - arXiv, 访问时间为 七月 23, 2025, https://arxiv.org/html/2503.14493v2/
  27. State Space Model Meets Transformer: A New Paradigm for 3D Object Detection - arXiv, 访问时间为 七月 23, 2025, https://arxiv.org/abs/2503.14493
  28. MonoDGP: Monocular 3D Object Detection with Decoupled-Query …, 访问时间为 七月 23, 2025, https://openaccess.thecvf.com/content/CVPR2025/html/Pu_MonoDGP_Monocular_3D_Object_Detection_with_Decoupled-Query_and_Geometry-Error_Priors_CVPR_2025_paper.html
  29. MonoDGP: Monocular 3D Object Detection with Decoupled-Query and Geometry-Error Priors - arXiv, 访问时间为 七月 23, 2025, https://arxiv.org/html/2410.19590v2
  30. [CVPR 2025] The offical implementation of ‘MonoDGP: Monocular 3D Object Detection with Decoupled-Query and Geometry-Error Priors’ - GitHub, 访问时间为 七月 23, 2025, https://github.com/PuFanqi23/MonoDGP
  31. ACM, 访问时间为 七月 23, 2025, https://ojs.aaai.org/index.php/AAAI/citationstylelanguage/get/acm-sig-proceedings?submissionId=32475&publicationId=30748
  32. ACM, 访问时间为 七月 23, 2025, https://ojs.aaai.org/index.php/AAAI/citationstylelanguage/get/acm-sig-proceedings?submissionId=33152&publicationId=31425
  33. Object Detection using Event Camera: A MoE Heat Conduction …, 访问时间为 七月 23, 2025, https://openaccess.thecvf.com/content/CVPR2025/html/Wang_Object_Detection_using_Event_Camera_A_MoE_Heat_Conduction_based_CVPR_2025_paper.html
  34. self-prompting analogical reasoning for uav object detection …, 访问时间为 七月 23, 2025, https://paperswithcode.com/paper/self-prompting-analogical-reasoning-for-uav
  35. Self-Prompting Analogical Reasoning for UAV Object Detection - ResearchGate, 访问时间为 七月 23, 2025, https://www.researchgate.net/publication/390723780_Self-Prompting_Analogical_Reasoning_for_UAV_Object_Detection
  36. Self-Prompting Analogical Reasoning for UAV Object Detection, 访问时间为 七月 23, 2025, https://ojs.aaai.org/index.php/AAAI/article/view/34026/36181
  37. Self-Prompting Analogical Reasoning for UAV Object Detection …, 访问时间为 七月 23, 2025, https://ojs.aaai.org/index.php/AAAI/article/view/34026
  38. lnxwow/Analogical-Reasoning - GitHub, 访问时间为 七月 23, 2025, https://github.com/lnxwow/Analogical-Reasoning
  39. Believing is Seeing: Unobserved Object Detection using Generative Models - CVPR 2025 Open Access Repository, 访问时间为 七月 23, 2025, https://openaccess.thecvf.com/content/CVPR2025/html/Bhattacharjee_Believing_is_Seeing_Unobserved_Object_Detection_using_Generative_Models_CVPR_2025_paper.html
http://www.dtcms.com/a/294944.html

相关文章:

  • VulhubDVWA靶场环境搭建及使用
  • 【Mysql】 Mysql zip解压版 Win11 安装备忘
  • Neo4j 框架 初步简单使用(基础增删改查)
  • OMS监考系统V2版本无法启动问题解决办法
  • [每日随题15] 前缀和 - 拓扑排序 - 树状数组
  • 海信IP501H-IP502h_GK6323处理器-原机安卓9专用-TTL线刷烧录可救砖
  • 【Java学习|黑马笔记|Day21】IO流|缓冲流,转换流,序列化流,反序列化流,打印流,解压缩流,常用工具包相关用法及练习
  • C++面试7——继承与多态
  • Xorg占用显卡内存问题和编译opencv GPU版本
  • InnoDB的redo log和 undo log
  • 智能小e-集成配置
  • Nestjs框架: 基于Prisma的多租户功能集成和优化
  • 使用抓取 API 可靠高效地提取亚马逊 (Amazon)数据
  • CCD工业相机系统设计——基于FPGA设计
  • SQL执行顺序
  • LLM 隐藏层特征增强技术
  • 同步型降压转换器的“同步”是什么意思?
  • Vite 7.0 引入的几个重要新 API 详解
  • 三极管与场效应管的对比
  • Python脚本服务器迁移至K8S集群部署
  • k8s中的configmap存储
  • JavaWeb-Servlet
  • 内外网互传文件 安全、可控、便捷的跨网数据交换
  • 服务器版本信息泄露-iis返回包暴露服务器版本信息
  • Node.js 倒计时图片服务部署与 Nginx 反向代理实战总结
  • RCE随笔-奇技淫巧(2)
  • Android热修复实现方案深度分析
  • AI面试如何提升物流行业招聘效率?实战案例解析
  • ESP32-S3学习笔记<5>:SPI的应用
  • JDK 介绍与使用指南