基于 SAFM 超分辨率上采样模块的 YOLOv12 改进方法—模糊场景目标检测精度提升研究
在复杂视觉环境中,如低光照、雾天或远距离拍摄等场景下,图像质量下降导致目标模糊,使得传统目标检测模型难以实现高精度识别。YOLO系列作为主流单阶段检测框架,在速度和精度方面表现出色,但在模糊和小目标场景中仍存在性能瓶颈。本文提出一种面向 YOLOv12 的创新性改进方法,引入 ICCV 2023 提出的空间自适应特征调制模块(
SAFM
) ,替代传统上采样操作,通过多尺度特征表示 与动态空间调制机制 ,有效增强非局部特征交互能力,显著提升模型在模糊和小目标场景下的检测精度。
1. 研究背景
在YOLOv12架构中,上采样过程通常依赖双线性插值或转置卷积操作,这些方法虽然计算高效,但难以恢复图像的高频细节,尤其在模糊或小目标区域容易产生伪影或误检。
SAFM
模块通过以下机制弥补这一缺陷:
- 利用非局部特征交互增强上下文感知;
- 引入动态空间调制实现像素级增强;
- 多尺度融合提高鲁棒性与泛化能力;
- 结构设计兼顾效率与性能平衡。
因此,我们将SAFM
模块嵌入