当前位置: 首页 > news >正文

YOLO --- YOLOv3以及YOLOv4模型详解

YOLO — YOLOv3以及YOLOv4模型详解


文章目录

  • YOLO --- YOLOv3以及YOLOv4模型详解
  • YOLOv3
  • 一,论文地址
  • 二,模型介绍
  • 三,网络结构
    • 3.1 整体结构
    • 3.2 主干网络
    • 3.3 特征输出
    • 3.4 特征融合
  • 四,损失函数
  • 五,优缺点
    • 5.1 优点
    • 5.2 缺点
  • YOLOv4
  • 一,论文地址
  • 二,模型介绍
    • 2.1 介绍
    • 2.2 改进点
    • 2.3 贡献
  • 三,数据增强策略
    • 3.1 Bag of freebies
    • 3.2 Bag of specials
    • 3.3 CutMix 数据增强
    • 3.4 Mosaic 数据增强
    • 3.5 DropBlock 正则化
    • 3.6 Class label smoothing
    • 3.7 CmBN
    • 3.8 Mish 激活函数
  • 四,网络结构
    • 4.1 CSPNet
    • 4.2 YOLOV4 的 CSP
    • 4.3 SPPNet
    • 4.4 FPN+PAN
  • 五,损失函数
    • 5.1 IoU Loss
    • 5.2 GIoU Loss
    • 5.3 DIoU Loss
      • 3.4 CIoU Loss
  • 六,优缺点
    • 6.1优点
    • 6.2缺点


YOLOv3

一,论文地址

  • YOLOV3 论文地址::https://arxiv.org/pdf/1804.02767
  • YOLOV3 论文中文翻译地址::https://blog.csdn.net/yegeli/article/details/109751358

二,模型介绍

YOLOv3的架构可以分为三个部分:Darknet-53结构、特征层融合结构和分类检测结构。Darknet-53是一个53层的卷积神经网络,用于提取图像中的特征。特征层融合结构通过上采样和下采样操作,将不同尺寸的特征图进行融合,以获得更强的特征表现力。分类检测结构则负责对特征图进行目标检测和分类。

三,网络结构

3.1 整体结构

请添加图片描述

  • **CBL:**CBL(Convolutional + Batch Normalization + Leaky ReLU)是 Yolov3 网络结构中的最小组件,组成如下:

    • 卷积层(Convolutional Layer)
    • 批量归一化层(Batch Normalization Layer)
    • 激活函数(Leaky ReLU)
  • **resunit:**含有多个 CBL,残差模块中含有一个或多个残差单元。输入通过两个 CBL 后,再与原输入进行 add;这是一种常规的残差单元。残差单元的目的是为了让网络可以提取到更深层的特征,同时避免出现梯度消失或爆炸

    • 梯度消失是指在反向传播过程中,梯度值变得非常小,以至于权重更新几乎停滞不前
    • 梯度爆炸是指在反向传播过程中,梯度值变得非常大,导致权重更新幅度过大,从而使模型的训练不稳定甚至发散
  • **resn:**resn 是 Yolov3 中的大组件,n 表示这个 Res-block 里含有多少个 Res-unit,组成如下:

    • 一个 padding
    • 一个 CBL
    • N 个残差组件
  • **concat:**将 Darknet-53 的中间层和后面的某一层的上采样进行张量拼接,达到多尺度特征融合的目的。这与残差层的 add 操作是不一样的,拼接会扩充张量维度,而 add 直接相加不会导致张量维度的改变,例如 104×104×128 和 104×104×128 拼接,结果是 104×104×256

  • add:张量相加,张量直接相加,不会扩充维度,例如 104×104×128 和 104×104×128 相加,结果还是 104×104×128

  • 上采样:上采样(Upsampling)是一个关键的技术,用于实现多尺度特征融合,从而提高模型对不同尺度目标的检测能力

    • 多尺度特征融合:YOLOv3 在多个尺度上进行目标检测,通过上采样将低分辨率的特征图放大到高分辨率,与更高分辨率的特征图进行融合,从而捕捉到更多的细节信息,有助于模型更好地检测不同尺度的目标,尤其是小目标

3.2 主干网络

  • YOLOV3 主干结构采用 darknet-53,没有池化和全连接层,尺寸变换是通过 Stride 实现的
  • 整个网络主要包括5组残差块,如下:
    • 256x256输入为例,首先经过一个3x3x32的卷积层输出为256x256x32
    • 接着经过一个3x3x64 stride=2的卷积层输出为128x128x64
    • 接着经过一个残差块,输出为128x128x64
    • 再经过一个3x3x128 stride=2的卷积层输出为64x64x128
    • 经过2个残差块后输出为64x64x128
    • 接着经过一个3x3x256 stride=2的卷积层输出为32x32x256
    • 接着经过8个残差块,输出为32x32x256
    • 再经过一个3x3x512 stride=2的卷积层输出为16x16x512
    • 接着经过8个残差块后输出为16x16x512
    • 接着经过一个3x3x1024 stride=2的卷积层输出为8x8x1024
    • 接着经过4个残差块后输出为8x8x1024
    • 最后经过池化全连接层以及softmax输出
      请添加图片描述

3.3 特征输出

特征图尺寸越小,感受野越大,他们分别适配不同大小的目标:

  • 52 × 52 感受野小,更适合检测小型目标

  • 26 X26 感受野中等,更适合检测中小型目标

  • 13 × 13 感受野大,更适合检测大型目标
    请添加图片描述

3.4 特征融合

模块关键维度核心思想 / 做法具体细节 & 数值作用 & 优势YOLOv3 中的特殊处理
FPN 思想多尺度特征融合让“每层特征图都同时具备高层的语义 + 低层的细节”• 骨干网络输出 3 个尺度:13×13、26×26、52×52
• 自顶向下上采样 2× 后与同尺度特征拼接
• 横向连接:Concatenate 而非 Add
• 小目标召回率大幅提升
• 避免多次前向,速度优于图 a 的图像金字塔
全程复用 Darknet-53 的中间层,不额外堆层
FPN 融合融合方式先对齐尺寸与通道,再 Concatenate• 1×1 Conv 统一通道数
• 2× Up-sampling (最近邻) 统一空间尺寸
• Concatenate 后走 3×3 CBL
• 通道数翻倍,信息更丰富
• 加法易淹没弱信号,拼接保留全部信息
与原始 FPN 不同:YOLOv3 用「拼接」替代「逐元素 Add」
上采样融合融合流程逐层向上融合① 32×下采特征(13×13) → 上采样→与16×下采特征(26×26) Concat→CBL
② 结果再上采样→与8×下采特征(52×52) Concat→CBL
高层语义向下渗透,细节向上补充,形成“双向增强”每个融合点都紧接一个 3×3 CBL 做进一步特征提取
多尺度预测输出张量3 个尺度,每个尺度 3 个 anchor• 尺度:13×13 / 26×26 / 52×52
• 每尺度 3 anchor → 共 9 anchor
• 每个 grid 输出 85 维向量
• 13×13:大目标,感受野大
• 26×26:中等目标
• 52×52:小目标,分辨率高
总预测框数: (13²+26²+52²)×3 = 10 647
85 维向量含义4+1+80• 4:中心点 x, y + 宽 w, 高 h(相对 grid 的偏移/尺度)
• 1:objectness 置信度 Pr(object)×IoU(b,gt)
• 80:COCO 80 类每类条件概率 Pr(class_i | object)
一步到位得到检测框 + 分类概率,便于端到端训练后处理:先按置信度阈值过滤 → NMS 去重

四,损失函数

YOLOv3 的损失函数由三个主要部分组成:定位损失(Localization Loss)、置信度损失(Confidence Loss)和分类损失(Classification Loss)

  • 定位误差损失:对于每一个与真实边界框(ground truth)匹配的先验框(anchor box),YOLOv3 会计算其在位置(x, y)和尺寸(w, h)上的预测误差。该部分损失采用**均方误差(Mean Squared Error, MSE)**进行计算。需要注意的是,YOLOv3 仅对负责预测目标的 anchor box 计算定位损失,其余框不参与该部分损失的计算
  • 置信度误差损失:YOLOv3 使用**二元交叉熵损失(Binary Cross Entropy, BCE)**来计算置信度损失。该损失分为两个部分:
    • 对于负责预测目标的 anchor box,置信度的目标值为预测框与真实框之间的 IOU
    • 对于不负责预测的 anchor box,目标值为 0。 这种设计有助于模型学习区分包含目标与不包含目标的边界框
  • 分类误差损失‌:与早期版本不同,YOLOv3 放弃了使用 softmax 的多类分类方式,转而采用独立的二元分类器,并对每个类别使用二元交叉熵损失(Binary Cross-Entropy Loss)。这种多标签分类的设计允许一个边界框同时属于多个类别(如“女性”和“人”),从而更好地建模现实世界中复杂的标签重叠情况

五,优缺点

5.1 优点

  1. 多尺度检测:利用 FPN 思想,在 13×13、26×26、52×52 三张特征图上并行预测,小目标召回率显著提高。
  2. 特征融合:自顶向下路径 + 横向通道拼接(Concatenate),高层语义与低层细节充分混合,信息更丰富。
  3. 网络更深:Darknet-53 骨干网络引入大量残差块,在 ImageNet 上先训练,再迁移到检测任务,精度高且收敛快。
  4. 多锚框机制:每个网格 3 个 anchor,共 9 组先验框,覆盖尺度更广,减少手工设计负担。
  5. 实时性:在 320×320 输入下,YOLOv3-320 在 COCO 上 22 ms / 28.2 mAP;在 416×416 下仍保持 30 FPS 以上,兼顾速度与精度。
  6. 鲁棒性:同一网络可同时检测大、中、小目标,对复杂场景(遮挡、多尺度目标并存)更鲁棒。
  7. 统一框架:单阶段、端到端训练,无需区域提议,工程实现简单,易于部署。

5.2 缺点

  1. 小目标仍受限:虽然比 YOLOv2 好,但相比两阶段或 Transformer 方法,极小目标漏检率依然偏高。
  2. 定位精度:大物体边缘框回归误差相对较大,IoU 精度不及 Mask R-CNN、Cascade R-CNN 等两阶段网络。
  3. 锚框敏感:9 组 anchor 基于 COCO 聚类,迁移到自定义数据集需重新聚类,否则匹配率下降。
  4. 正负样本失衡:由于密集预测,背景框远多于前景框,训练时需靠 objectness 阈值与 focal loss 变种缓解。
  5. 特征粗糙:下采样倍数大(32×),对细长或密集排列物体分割粒度不足,易出现框合并。
  6. 模型体积:Darknet-53 含 53 个卷积层,参数量 ~62 M,嵌入式端需再做剪枝/量化才能实时。
  7. 后处理耗时:10 647 个预测框需经置信度过滤 + NMS,极端场景下 NMS 时间不可忽略。

YOLOv4

一,论文地址

  • YOLOv4 论文地址::https://arxiv.org/pdf/2004.10934
  • YOLOv4 论文中文翻译地址:https://blog.csdn.net/muye_IT/article/details/125294973

二,模型介绍

2.1 介绍

YOLOv4 的主要改进包括网络结构优化、数据增强技术和损失函数改进。其主干网络采用 CSPDarknet53,结合了跨阶段部分连接(CSPNet)以减少计算量,同时保持高精度。激活函数使用 Mish,进一步提升了模型的学习能力和泛化性能。

2.2 改进点

OLOv4 主要涉及的改进内容如下:

  • 输入端改进:CutMix、Mosaic 数据增强
  • 主干网络:CSPDarknet53 为 backbone、 SPP 额外添加模块
  • 颈部网络:SPP(Spatial Pyramid Pooling)、PANet(Path Aggregation Network)
  • 检测头:YOLOv3(基于 anchor 的)
  • 损失函数:CIOU(Complete Intersection over Union )损失
  • 激活函数:Mish 激活函数
  • 样本匹配:增加了匹配样本的数量

2.3 贡献

YOLOv4 贡献主要内容如下:

  • 算力要求低,单 GPU 就能训练好
  • 从数据层面(数据增强等)和网络设计层面(网络结构)来进行改善
  • 融合各种神经网络论文的先进思想

三,数据增强策略

3.1 Bag of freebies

  • 通常情况下,传统的目标检测器的训练都是在线下进行的。因此, 研究者们总是喜欢利用纯线下训练的好处而研究更好的训练方法,使得目标检测器在不增加测试成本的情况下达到更好的精度。我们将这些只需改变训练策略或只增加训练成本的方法称为 bag of freebies。目标检测经常采用并符合这个定义的就是数据增强。数据增强的目的是增加输入图像的多样性,从而使设计的目标检测模型对来自不同环境的图片具有较高的鲁棒性
  • 使用场景:Mosaic 数据增强、标签平滑、自对抗训练、损失函数 CIOU、CmBN

3.2 Bag of specials

  • 对于那些只会增加少量的推理成本的插入模块和后期处理方法, 但可显著提高目标检测的准确性,我们称其为 Bag of specials。一 般来说,这些插入模块是用来增强模型的某些属性的,如扩大感受野、 引入注意力机制、增强特征整合能力等,而后处理是一种筛选模型预测结果方法
  • 使用场景:Mish 激活函数、CSP 结构

3.3 CutMix 数据增强

请添加图片描述

  • 增强局部特征的学习:通过将不同图像的局部特征混合在一起,模型可 以学习到更多的局部信息
  • 提高训练效率:高价值信息增多,提升训练效率,优化算法性能
  • 防止模型过拟合:通过引入更多样的训练样本,CutMix 能够提高模型的泛化能力,减少过拟合现象
  • 数据稳定:由于采用填充的形式,不会有图像混合后不自然的情形,能够提升模型分类的表现

3.4 Mosaic 数据增强

  • Mosaic 数据增强则利用了 4 张图片,对 4 张图片进行拼接,每一张图片都有其对应的框,将 4 张图片拼接之后就获得一张新的图片,同时也获得这张图片对应的框,然后将这样一张新的图片传入到神经网络当中去学习,这极大丰富了检测物体的背景

  • Mosaic数据增强的具体步骤如下:

    • 首先随机取 4 张图片
    • 分别对 4 张图片进行基本的数据增强操作,并分别粘贴至与最终输出图像大小相等掩模的对应位置
    • 进行图片的组合和框的组合
  • 注意:

    • 基本的数据增强包括:翻转、缩放以及色域变化(明亮度、饱和度、色调)等操作
  • 图示:先对单张图片做调整亮度、对比度、色调、随机缩放、剪切、翻转、旋转等基本数据增强,后把 4 张图片拼接在一起请添加图片描述

  • 优点:

    • 增加数据多样性:通过将多张图像混合在一起,生成更多不同的训练样 本
    • 提升模型的鲁棒性:模型在训练过程中见过更多样的图像组合,能够更 好地应对不同场景下的目标检测任务
    • 减少过拟合:通过增加数据的多样性,有助于防止模型过拟合,提升泛化能力
    • 减少训练算力:由于一次性可以计算 4 张图片,所以 Batch Size 可以不用 很大,也为 YOLOv4 在一张 GPU 卡上完成训练奠定了数据基础

3.5 DropBlock 正则化

  • DropBlock 是一种用于卷积神经网络的正则化技术,旨在防止过拟合。它通过在训练过程中随机丢弃特征图中的连续区域(块)来增加模型的泛化能力。与传统的 Dropout 不同,Dropout 随机丢弃独立的神经元,而 DropBlock 丢弃的是特征图中的连续相邻区域,这样可以更有效地移除某些语义信息,从而提高正则化的效果
  • 图示:图(b) 表示 Dropout 、图(c)表示 DropBlock 请添加图片描述

3.6 Class label smoothing

  • 标签平滑(Label Smoothing)是一种正则化技术,用于减少模型在训练过程中对训练数据的过拟合,提高模型的泛化能力。标签平滑的基本思想是通过在训练过程中对标签进行平滑处理,减少模型对单一类别的过度自信,从而使得模型更加鲁棒

  • 独热编码(One-Hot Encoding)是一种将分类变量转换为二进制向量的编码方法,通过 One-Hot 编码,可以将分类变量转换为数值形式,假设有一个分类变量,它有 𝐾 个不同的类别。One-Hot 编码会将每个类别映射到一个长度为 𝐾 的二进制向量,其中只有一个位置为 1,其余位置为 0。这个位置对应于该类别的索引

  • 标签平滑的工作原理:

    • 在传统的分类任务中,标签通常是以 one-hot 编码的形式给出的。例如,对于一个三分类任务,标签可能是 [1, 0, 0][0, 1, 0][0, 0, 1]。标签平滑通过将这些硬标签平滑为软标签,使得每个类别的概率不再是 0 或 1,而是一个介于 0 和 1 之间的值
    • 公式:
      • ytruey_{true}ytrue是原始的 one-hot 编码标签
      • ysmoothedy_{smoothed}ysmoothed是平滑后的标签
      • ϵ\epsilonϵ是平滑系数,通常是一个较小的正数(例如 0.1)
      • K 是类别的总数

    ysmoothed=(1−ϵ)⋅ytrue+ϵKy_{smoothed}=(1-\epsilon)·y_{true}+\frac{\epsilon}{K} ysmoothed=(1ϵ)ytrue+Kϵ

  • 案例:假设我们有一个三分类任务,原始的 one-hot 编码标签是 [1, 0, 0],平滑系数 𝜖=0.1,类别总数 𝐾=3。那么平滑后的标签计算如下:

y1=(1−0.1)∗[1,0,0]+0.13=[0.9,0,0]+0.0333=[0.9333,0.0333,0.0333]\begin{aligned} &y_{1}=(1-0.1)*[1,0,0]+\frac{0.1}{3}=[0.9,0,0]+0.0333=[0.9333,0.0333,0.0333] \\ \end{aligned} y1=(10.1)[1,0,0]+30.1=[0.9,0,0]+0.0333=[0.9333,0.0333,0.0333]

3.7 CmBN

  • 交叉小批量归一化(Cross mini-Batch Normalization,CmBN) 是 CBN 的修改版。CmBN会跨多个小批量对均值和方差进行积累和计算,逐渐形成一个全局的均值和方差,从而提升了统计量的稳定性和准确性,减少训练震荡
方法均值/方差计算方式是否跨 batch是否引入条件信息适用场景主要优势
BN当前 batch 内通用简单高效
CBN当前 batch + 条件信息多任务、生成模型控制特征分布
CmBN当前 batch + 历史 batch(滑动平均)小 batch size提升统计稳定性

3.8 Mish 激活函数

  • 与 ReLU 等非平滑激活函数相比,Mish 具有更好的平滑性,平滑的激活函数能够让模型获得更好的非线性,从而得到更好的准确性和泛化,Mish 激活函数的数学表达式为:

Mish(x)=x∗tanh(ln(1+ex))Mish(x)=x*tanh(ln(1+e^x)) Mish(x)=xtanh(ln(1+ex))

  • Mish 函数和 ReLU 一样都是无正向边界的,可以避免梯度饱和
    请添加图片描述
    使用了Mish激活函数的 TOP-1 和 TOP-5 的精度比没有使用时都略高一些:请添加图片描述

四,网络结构

  • YOLOv4 采用了称为 CSPDarknet-53 的新的主干网络结构,它基于 Darknet-53,并通过使用 CSP(Cross Stage Partial)模块来提高特征表示的能力
  • YOLOv4 = CSPDarknet53(骨干) + SPP 附加模块PANet 路径聚合(颈) + Yolov3(检测头)
    请添加图片描述
    请添加图片描述

4.1 CSPNet

  • CSPNet(Cross Stage Partial Network):跨阶段局部网络,主要从网络结构设计的角度解决推理中计算量很大的问题

  • CSPNet 的作者认为推理计算过高的问题是由于网络优化中的梯度信息重复导致的。因此采用 CSP(Cross Stage Partial)模块先将基础层的特征按照通道划分为两部分,一部分直接传递到下一个阶段,另一部分则通过一些卷积层进行处理后再传递到下一个阶段,然后通过跨阶段层次结构将它们合并,在减少了计算量的同时可以保证准确率

  • CSP 在论文《CSP:A New Backbone that can Enhance Learning Capability of CNN 》提出,把 CSP 应用到 ResNe(X)t,模型结构如下图所示:请添加图片描述
    Bottleneck 层通常由三个卷积层组成:

  • 第一个 1×1 卷积层:用于降低输入的通道数,以减少后续卷积层的计算量

  • 第二个 3×3 卷积层:在降维后的特征图上进行卷积操作,提取特征

  • 第三个 1×1 卷积层:将通道数恢复到原始维度,以供下一层使用请添加图片描述
    优点:

  • 增强 CNN 的学习能力,使得在轻量化的同时保持准确性

  • 降低计算成本、内存成本

4.2 YOLOV4 的 CSP

  • CSPNet 通过通道划分与跨阶段融合机制,有效减少了冗余计算,提升了模型的学习能力与推理效率,是现代高性能目标检测模型(如 YOLOv4 及其后续版本)中广泛采用的主干网络设计思想

请添加图片描述

  • 通道划分(Split)

    • 输入特征图的通道被平均分成两个部分(通常是 1: 1):
      • Part A:不做任何处理,直接跳过当前模块,传递到最终的拼接层
      • Part B:通过一系列卷积操作(如 Conv + Bottleneck)进行特征提取
  • 特征处理(Transform)

    • Part B 会经过多个标准的 Darknet Bottleneck 模块(类似 ResNet 的残差块)

    • 通常包括:

      • 1×1 卷积降维
      • 3×3 卷积提取特征
      • 可选的残差连接(Residual)
  • 跨阶段融合(Merge)

    • Part APart B 的输出 在通道维度上进行 拼接(Concatenate)

    • 然后通过一个 1×1 卷积 进一步融合特征,输出到下一个阶段请添加图片描述

4.3 SPPNet

空间金字塔池化网络(Spatial Pyramid Pooling Network,SPPNet)主要目的是解决图像在输入到卷积神经网络时尺寸不一的问题。通过将不同大小的输入映射到固定长度的输出,SPP 模块使得神经网络能够处理任意大小的输入,从而大大提高了模型的灵活性和泛化能力请添加图片描述

  • YOLOv4 借鉴了 SPP 的思想,SPP 模块被集成在主干网络之后,用于增强模型对多尺度目标的感知能力。

  • 将经过不同尺度池化后的特征图沿通道维度进行拼接。由于每个池化操作的结果都是 13×13×256,而我们进行了 4 次不同的池化操作(包括原特征图),最终得到的是一个 13×13×(4×256)=13×13×1024 的特征图,在这个过程中,虽然我们改变了特征图的处理方式,但我们并没有改变其空间分辨率(仍然是 13×13),而是增加了通道数(从 256 增加到 1024)。这样做可以有效地增加网络的感受野,并结合了不同尺度的信息,有助于提高模型对于各种大小目标的检测性能

4.4 FPN+PAN

  • 路径聚合网络(Path Aggregation Network,PAN),在 FPN 的基础之上进一步优化而来,用于在不同尺度的特征图之间进行信息传递和融合,以获取更好的多尺度特征表示
  • 在 YOLOv4 中,PANet(Path Aggregation Network)是一种用于特征金字塔网络(Feature Pyramid Network, FPN)的改进版本,旨在增强特征的多尺度融合能力,从而提高目标检测的精度。PANet 通过自底向上的路径增强机制,进一步加强了特征图的跨尺度信息传递,这对于检测不同大小的目标尤其重要
  • YOLOV4 中的 PANet 主要由两部分组成:
    • 自顶向下的路径(FPN):这部分与传统的 FPN 类似,从高层(语义信息丰富但空间信息较少)到低层(空间信息丰富但语义信息较少)逐步上采样,并与低层特征图进行融合,生成多尺度的特征图,作用就是负责将深层的强语义特征传递到底层特征图中,增强低层特征图的语义表达能力,有助于检测大目标
    • 自底向上的路径(PAN):这是 PANet 相对于传统 FPN 的一个重要改进,它从低层到高层逐步下采样,并与高层特征图进行融合,进一步增强特征图的跨尺度信息传递,作用就是负责将浅层的精确定位特征传递到高层特征图中,增强高层特征图的定位能力,有助于检测小目标
  • 改进:YOLOv4在原始PAN结构的基础上进行了改进。原本的 PANet 网络的 PAN 结构中,特征层之间融合时是直接通过加法(addition)的方式进行融合的,而 YOLOv4 中则采用在通道方向上进行拼接(Concat)的方式进行融合

五,损失函数

MSE Loss 主要问题就是导数变化不稳定,尤其是在早期阶段(损失越大,导数越大),随着导数越来越小, 训练速度变得越来越慢。也因此有学者提出了 IOU 一系列的损失函数,IOU 损失函数演变的过程如下:IOU => GIOU => DIOU =>CIOU 损失函数,每一种损失函数都较上一种损失函数有所提升

5.1 IoU Loss

  • IoU 损失定义如下:交集越大,损失越小

LIoU=1−∣B∩Bgt∣∣B∪Bgt∣\mathcal{L}_{IoU}=1-\frac{|B\cap B^{gt}|}{|B\cup B^{gt}|} LIoU=1BBgtBBgt

  • 不适合的情况:
    • 情况 1 ,当预测框和目标框不相交时,IoU=0,无法反映两个框距离的远近,此时损失函数不可导
    • 情况 2 和情况 3 的情况,当 2 个预测框大小相同,2 个 IoU 也相同,IOU Loss 无法区分两者位置的差异
      请添加图片描述

5.2 GIoU Loss

  • GIoU(Generalized loU)是对 IoU 的改进版本

  • 图中最大外接矩形为 C,红色区域为差集 A(C-并集),那么给出 GIoU Loss 的表达式如下:

LGIoU=1−∣IoU∣+∣A∣∣C∣\mathcal{L}_{GIoU}=1-|IoU|+\frac{|A|}{|C|} LGIoU=1IoU+CA
请添加图片描述

  • 优点:

    • 在 GIoU 不仅关注重叠区域,还关注其他的非重合区域,能够更好的反映两者的重合度,即添加了惩罚因子,缓解了 IoU Loss 不可导的问题
  • 缺点:

    • 下面 3 种情况差集均相等,这个时候 GIoU Loss 就退化为了 IoU Loss,GIoU Loss 也无法反映 3 种情况的好坏,即无法区分相对位置关系请添加图片描述

5.3 DIoU Loss

  • 为了解决 GIoU 遇到的问题,DIoU(Distance loU)就诞生了。DIoU 作者认为好的目标框回归函数应该考虑 3 个重要几何因素:重叠面积、中心点距离,长宽比
  • 针对 IoU 和 GIoU 存在的问题,DIoU 作者从两个方面进行考虑
    • 如何最小化预测框和目标框之间的归一化距离?
    • 如何在预测框和目标框重叠时,回归的更准确?
  • 针对第一个问题,提出了 DIoU Loss(Distance IoU Loss),DIoU Loss 考虑了重叠面积和中心点距离,当目标框包裹预测框的时候,直接计算 2 个框的距离,因此 DIoU Loss 收敛的更快
  • 公式:

LDIoU=1−|DIoU|=1−|IoU|+ρ2(B,Bgt)lc2ρ(B,Bgt)表示检测框中心点和真实框中点之间的欧式距离,lc表示最小外接矩形的对角线距离\begin{aligned} &\mathcal{L}_{DIoU}=1-\text{|DIoU|}=1-\text{|IoU|}+\frac{\rho^2(B,B^{gt})}{l_c^2} \\ &\rho(B,B^{gt})\text{表示检测框中心点和真实框中点之间的欧式距离,}l_c\text{表示最小外接矩形的对角}\\&\text{线距离}\end{aligned} LDIoU=1|DIoU|=1|IoU|+lc2ρ2(B,Bgt)ρ(B,Bgt)表示检测框中心点和真实框中点之间的欧式距离,lc表示最小外接矩形的对角线距离

  • 图示:

请添加图片描述

  • 效果图:

请添加图片描述

  • 缺点:
    • 如下图所示的 3 种状态预测框和真实目标框的中心点距离是相同的,DIoU Loss 也退化成了 IoU Loss。如上面提到的目标检测回归函数需要考虑到的 3 种因素,DIoU Loss 没有引入长宽比的衡量
      请添加图片描述

3.4 CIoU Loss

  • 为了解决 DIoU 遇到的问题,CIoU(Complete loU) Loss 被提出来,CIoU 在 DIoU 基础上把目标框长宽比的相似程度考虑进去,利用惩罚因子进行约束
  • YOLOv4 采用 CIoU Loss 做回归损失函数,而分类损失和目标损失都使用的是交叉熵损失。对于回归损失,其数学表达式如下:

LCIoU=1−∣CloU∣=1−∣IoU∣+ρ2(B,Bgt)lc2+αvv=4π2(arctanwgthgt−arctanwphp)2ρ2(B,Bgt),lc2分别表示预测结果与标注结果中心点的欧氏距离和框的对角线距离,w和h表示预测框的宽高v是衡量长宽比一致性的参数,wgt,hgt为真实框的宽高,wp,hp为检测框的宽高α是平衡因子,计算公式为v(1−IoU)+v\begin{aligned} &\mathcal{L}_{CIoU}=1-|CloU|=1-|IoU|+\frac{\rho^2(B,B^{gt})}{l_c^2}+\alpha{v} \\ &v=\frac4{\pi^2}\left(arctan\frac{w^{gt}}{h^{gt}}-arctan\frac{w^p}{h^p}\right)^2 \\ &\rho^2(B,B^{gt}),l_c^2 分别表示预测结果与标注结果中心点的欧氏距离和框的对角线距离,w和h表示预测框的宽高 \\ &v\text{是衡量长宽比一致性的参数,}w^{gt},h^{gt}\text{为真实框的宽高,}w^p,h^p\text{为检测框的宽高}\\ &\alpha是平衡因子,计算公式为\frac{v}{(1-IoU)+v} \end{aligned} LCIoU=1CloU=1IoU+lc2ρ2(B,Bgt)+αvv=π24(arctanhgtwgtarctanhpwp)2ρ2(B,Bgt)lc2分别表示预测结果与标注结果中心点的欧氏距离和框的对角线距离,wh表示预测框的宽高v是衡量长宽比一致性的参数,wgt,hgt为真实框的宽高,wp,hp为检测框的宽高α是平衡因子,计算公式为(1IoU)+vv

  • CIoU Loss 将目标框回归函数应该考虑的 3 个重要几何因素都考虑进去了:重叠面积、中心点距离、长宽比

六,优缺点

YOLOv4 优缺点(延续 YOLO 系列原始论文的行文风格)

6.1优点

  1. Bag-of-Freebies & Bag-of-Specials:系统整合 Mosaic、CutMix、Self-Adversarial Training 等 20 余种训练技巧与检测头/骨干网络改进,COCO mAP 从 YOLOv3-608 的 31.0 提升至 43.0(AP50),不增加推理成本。
  2. 更强骨干:CSPDarknet53 在保持 Darknet-53 级精度的同时,减少计算量 20 %,并引入 Mish 激活、CSP 跨阶段部分连接,进一步加速梯度传播与特征复用。
  3. 多尺度检测再升级:仍保留 3 层特征金字塔(13×/26×/52×),但新增 SPP 空间金字塔池化(5×5/9×9/13×13 级联池化核)与 PANet 双向融合路径,感受野更大,小目标漏检率继续下降。
  4. 训练友好:引入 CmBN、余弦 LR 调度、标签平滑、CIoU 损失,收敛更快,训练更稳定,且对自定义数据集迁移效果更佳。
  5. 实时性:YOLOv4-416 在 COCO 上 23 ms / 41.2 mAP;TensorRT FP16 优化后单张 RTX2080Ti 可达 60 FPS(608×608),兼顾服务器与边缘端部署。
  6. 统一框架:仍保持单阶段、端到端、无需区域提议,工程实现与 YOLOv3 基本兼容,可直接替换权重。
  7. 丰富生态:官方 Darknet、PyTorch、TensorFlow、ONNX、TensorRT、OpenVINO 等实现齐全,社区模型库与教程完备,落地门槛低。

6.2缺点

  1. 结构复杂:SPP、PANet、CSP 模块叠加后,网络深度与分支增多,代码可读性下降,调试定位困难。
  2. 超参数爆炸:Mosaic、MixUp、SAT、HSV 增强、Cosine LR、CmBN 等十余项超参需联合调优,新手易过拟合或欠拟合。
  3. 锚框依赖仍在:虽然引入 CIoU 缓解定位误差,但对极端长宽比、旋转目标仍需额外设计 anchor-free 头或角度回归,导致迁移成本。
  4. 大模型体积:YOLOv4 完整权重 245 MB,移动端需配合剪枝(30 % 稀疏化)+ INT8 量化后才可实时;Tiny 分支虽轻但精度骤降。
  5. 后处理瓶颈:预测框数与 YOLOv3 同级(10 k+),高分辨率场景下 NMS 耗时重新成为 CPU 端瓶颈;DIoU-NMS 虽快,但实现复杂。
  6. 对密集小目标仍有限:相比 DETR、Deformable DETR 等 Transformer 方法,在人群、车牌、小商标等超高密度任务上仍有差距。
http://www.dtcms.com/a/342649.html

相关文章:

  • Redis Hash数据类型深度解析:从命令、原理到实战场景
  • IPSEC安全基础后篇
  • 易焓仪器安全帽耐熔融金属飞溅性能测试仪:飞溅场景适配与精准检测
  • 力扣 30 天 JavaScript 挑战 第37天 第九题笔记 知识点: 剩余参数,拓展运算符
  • 智慧农业温室大棚远程监控物联网系统解决方案
  • CRaxsRat v7.4:网络安全视角下的深度解析与防护建议
  • AECS(国标ECALL GB 45672-2025)
  • 5G视频终端详解 无人机图传 无线图传 便携式5G单兵图传
  • 汇总图片拖进ps中 photoshop同时打开几个文件夹
  • 【论文阅读 | TCSVT 2025 | CFMW:面向恶劣天气下鲁棒目标检测的跨模态融合Mamba模型】
  • 深入理解Docker网络:从docker0到自定义网络
  • 设计简洁的Ansible:目前非常流行的开源配置管理和自动化工具
  • webrtc中win端音频---windows Core Audio
  • Mysql基础(②锁)
  • 想在手机上操作服务器?cpolar让WaveTerminal终端随身携带,效率倍增
  • 高并发短信网关平台建设方案概述
  • 打造医疗新质生产力
  • nodejs安装后 使用npm 只能在cmd 里使用 ,但是不能在poowershell使用,只能用npm.cmd
  • ES_多表关联
  • Linux 信号 (Signals)
  • 鱼眼相机去畸变的算法原理(一)
  • WEB服务器(静态/动态网站搭建)
  • 循环神经网络实战:用 LSTM 做中文情感分析(二)
  • Mokker AI:一键更换照片背景的AI神器
  • 鸿蒙生态开发全栈指南
  • mac的m3芯片安装mysql
  • 统计全为1的正方形子矩阵-二维dp
  • 机器学习中的两大核心算法:k 均值聚类与集成学习
  • c# 和 c++ 怎样结合
  • 基于springboot的美术馆管理系统