当前位置: 首页 > news >正文

CrowdDiff: 使用扩散模型进行多假设人群密度估计

论文信息

基本信息

  • 标题: CrowdDiff: Multi-hypothesis Crowd Density Estimation using Diffusion Models
    中文标题: CrowdDiff: 使用扩散模型进行多假设人群密度估计
  • 作者:
    • Yasiru Ranasinghe
    • Nithin Gopalakrishnan Nair
    • Wele Gedara Chaminda Bandara
    • Vishal M Patel
  • 机构: 约翰斯·霍普金斯大学,巴尔的摩,美国
  • 邮箱: {dranasil, ngopala2, wbandarl, vpatel36}@jhu.edu
  • 项目链接: https://dylran.github.io/crowddiff.github.io
  • 论文链接: https://openaccess.thecvf.com/content/CVPR2024/papers/Ranasinghe_CrowdDiff_Multi-hypothesis_Crowd_Density_Estimation_using_Diffusion_Models_CVPR_2024_paper.pdf

核心贡献

  1. 首次将扩散模型应用于人群计数,将密度图生成建模为去噪扩散过程
  2. 提出使用窄高斯核来简化学习过程并提高密度图生成质量
  3. 利用扩散模型的随机性,通过融合多个密度图实现来提高计数性能
  4. 引入辅助回归分支在训练期间改善特征学习

摘要

人群计数是人群分析中的一个基本问题,通常通过估计人群密度图并对密度值求和来完成。然而,这种方法存在背景噪声积累和由于使用宽高斯核创建真实密度图而导致的密度损失问题。通过缩小高斯核可以克服这个问题。然而,当使用宽高斯核的真实密度图进行训练时,现有方法表现不佳。为了解决这个限制,我们提出使用条件扩散模型来预测密度图,因为扩散模型在生成过程中对训练数据具有高保真度。为此,我们提出了CrowdDiff,它通过反向扩散过程生成人群密度图。此外,由于扩散过程的中间时间步是嘈杂的,我们在训练期间引入了一个回归分支用于直接人群估计,以改善特征学习。另外,得益于扩散模型的随机性,我们引入了生成多个密度图来提高计数性能,这与现有的人群计数流程不同。我们在公开可用的数据集上进行了大量实验,以验证我们方法的有效性。CrowdDiff在几个人群分析基准上超过了现有的最先进人群计数方法,并有显著改进。CrowdDiff项目可在以下网址找到:https://dylran.github.io/crowddiff.github.io。

1. 引言

人群计数是监控、公共安全和人群控制中的一个基本问题。文献中提出了各种方法,包括直接预测计数[21,51,58]或使用代理任务,如密度估计[13,16,46,47,49,50]、目标检测[30,39]或点定位[9,22,45,56]。

基于密度的方法通过对估计的像素密度值求和进行计数[13],而基于定位的方法对置信度高于阈值的提案进行计数[45]。因此,与基于定位的方法相比,基于密度的方法更容易将背景噪声引入最终计数。此外,基于密度的方法受到由于人群拥挤程度不同而产生的密度分布变化的影响[3]。这可能导致密度估计的准确性下降。相比之下,最近使用点查询的基于定位的方法没有基于密度的方法[41]中背景噪声积累的问题,因为相邻点提案之间没有干扰。然而,基于定位的方法需要人群密度启发式来设置提案[45],而基于密度的方法则不需要。因此,如果将点监督的前提转化为基于密度的方法,就有可能避免对人群密度启发式的需求以及传统基于密度方法的缺陷,并且可以使用窄密度核来实现这一点。然而,Xu等人[56]证明了使用窄核与密度回归方法是无效的。

或者,可以使用生成模型来预测给定人群图像的密度图,该模型将学习密度图中值的分布。尽管基于生成对抗网络(GAN)的架构已用于密度图预测[8,40,57],但这些方法仍然依赖于宽核大小,并忽略了点监督的好处。由于模型学习密度像素值的分布,因此保持密度像素值的样本空间是有利的,而使用宽核只会阻碍这一点。此外,点监督和生成模型的人群密度预测的结合使用尚未被深入研究。而且,上述基于GAN的方法类似于基于回归的方法,仅限于单个人群密度图实现,而放弃了生成模型产生多个密度图实现的随机性,这可能会提高计数性能。

我们提出使用去噪扩散概率模型(扩散模型)[12,36]来生成给定图像的人群密度图。尽管扩散模型已应用于分割[2,10]、超分辨率[18]、目标检测[4]等任务,但据我们所知,尚未有研究将扩散模型用于人群计数或密度图生成。此外,通过窄核,我们最小了相邻密度之间的干扰,这有助于保持密度像素值的边界和分布。这反过来简化了扩散模型的分布学习,并改进了密度预测,如图1所示,其中我们提出的方法即使在密集区域也再现了窄核,而其他两种最近的方法失败了。

此外,为了避免基于密度的人群计数方法可能出现的密度损失,我们通过阈值化像素密度值来计数预测密度图中观察到的斑块数量。因此,我们消除了背景噪声的影响,因为不需要对密度像素值求和。然后,我们引入了人群图融合机制,结合阈值化后构建的多个点图以提高计数性能。这只有生成模型才能实现,因为它们的随机性。另外,受[7]在扩散模型联合学习上的启发,我们在训练期间引入了一个辅助回归分支,该分支基于去噪网络的编码器-解码器特征来估计计数,以改善特征学习。

总之,我们的贡献是:

  • 我们将人群密度图生成制定为一个去噪扩散过程。CrowdDiff是第一个使用扩散模型进行人群计数的研究。
  • 我们提倡使用窄高斯核来简化学习过程,并促进生成更忠实于真实值的高质量密度图。
  • 我们提出了一种机制来整合多个人群密度实现,以利用扩散模型的随机性来提高性能。
  • 我们展示了所提出的方法在公共数据集上超越了最先进的性能。

2. 背景与相关工作

2.1. 人群计数

基于定位的方法通过预测头部的位置来执行计数,通常涉及为每个头部预测一个边界框[20,30,39,60]。文献中也提出了通过点[20]或斑块[28]进行定位。最近,为了消除后处理(如非极大值抑制)的必要性,点定位[22,45]被引入人群计数。

基于密度的方法[3,19,26,27,29,35,55]试图为给定的人群图像生成密度图。然而,基于密度的方法由于宽核而受到背景噪声和密集区域密度损失[31,33,37]的影响。但是,根据[56],使用窄高斯核生成真实值对于回归网络是无效的。因此,我们将密度图的预测视为一个生成任务。

2.2. 用于人群密度生成的扩散模型

扩散模型[43]基于一个马尔可夫链定义,包括前向过程和反向过程。在前向过程中,逐渐向数据添加噪声;在反向过程中进行去噪。前向过程公式化为:

q(xt∣xt−1)=N(xt∣1−βtxt−1,βtI),q(\mathbf{x_{t}}|\mathbf{x_{t-1}})=\mathcal{N}(\mathbf{x_{t}}|\sqrt{1-\beta_{t}}\mathbf{x_{t-1}},\beta_{t}\mathbf{I}),q(xtxt1)=N(xt1βtxt1,βtI),

其中样本数据x0\mathbf{x_{0}}x0根据噪声方差计划β1,…,βT\beta_{1},\ldots,\beta_{T}β1,,βT逐渐转换为噪声样本xt\mathbf{x_{t}}xtt ∈ {1,…,T}t\:\in\:\{1,\ldots,T\}t{1,,T},添加高斯噪声。这里,I\mathbf{I}I是单位矩阵。然而,xt\mathbf{x_{t}}xt可以使用x0\mathbf{x_{0}}x0和一个噪声向量ϵ∼N(0,I)\boldsymbol{\epsilon}\sim\mathcal{N}(\mathbf{0},\mathbf{I})ϵN(0,I)计算,通过前向变换:

xt=αtˉx0+(1−αtˉ)ϵ,\mathbf{x_{t}}=\sqrt{\bar{\alpha_{t}}}\mathbf{x_{0}}+\sqrt{(1-\bar{\alpha_{t}})\epsilon},xt=αtˉx0+(1αtˉ)ϵ,

αtˉ:=∏τ=1tατ=∏τ=1t(1−βτ)\begin{array}{r}{\bar{\alpha_{t}}:=\prod_{\tau=1}^{t}\alpha_{\tau}=\prod_{\tau=1}^{t}(1-\beta_{\tau})}\end{array}αtˉ:=τ=1tατ=τ=1t(1βτ)

在这项工作中,我们的目标是通过扩散模型执行人群密度图生成。因此,我们的数据样本将是人群密度图x0∈RH×W\mathbf{x_{0}}\in\mathbb{R}^{H\times W}x0RH×W,其中H和W是高度和宽度维度。然而,我们不是训练神经网络从xt\mathbf{x_{t}}xt预测x0\mathbf{x_{0}}x0对于不同的时间步,而是预测在xt\mathbf{x_{t}}xt中的噪声量(ε),条件于人群图像(y),并应用反向扩散过程最终获得x0\mathbf{x_{0}}x0

为此,为了训练去噪扩散网络,我们使用[36]中提出的混合损失函数(Lhybrid)(\mathcal{L}_{h y b r i d})(Lhybrid)。为了在低信噪比阶段促进学习粗糙特征,我们采用[6]中定义的加权方案:

KaTeX parse error: Undefined control sequence: \SNR at position 150: …a}},\mathrm{其中~\̲S̲N̲R̲}\left(t\right)…

其中kkkγ\gammaγ是超参数。因此,去噪网络优化的最终损失如下:

Lhybrid=Ex0,y,ϵ⌊λt∥ϵ^(x0,y,t)−ϵ∥22⌋+λvlb Lvlb,\mathcal{L}_{h y b r i d}=\mathbf{E_{x_{0},y,\epsilon}}\left\lfloor\lambda_{t}\|\hat{\mathbf{\epsilon}}_{(\mathbf{x_{0}},\mathbf{y},t)}-\mathbf{\epsilon}\|_{2}^{2}\right\rfloor+\lambda_{v l b}\:\mathcal{L}_{v l b},Lhybrid=Ex0,y,ϵλtϵ^(x0,y,t)ϵ22+λvlbLvlb,

其中Lvlb\mathcal{L}_{v l b}Lvlb是[36]中定义的原始变分下界,λvlb\lambda_{v l b}λvlb是其权重因子。

图1. (a)密集人群的预测密度结果,(b)我们的方法,(c) Chfl [41],和(d) SUA [34]。放大裁剪区域的计数在括号中给出。

3. CrowdDiff

在本节中,我们首先回顾选择合适核大小的动机。我们提出了将计数作为辅助任务进行联合学习以提高密度图生成性能。最后,我们介绍了一种结合不同密度图实现以提高人群计数性能的方法。整体人群计数流程如图2所示。

3.1. 窄核

扩散过程需要密度图来学习条件人群密度分布。人群密度图可以通过将点信息与预定义的高斯核卷积获得。为此,选择适当的核大小和方差很重要,因为它控制着人群密度图像素值的分布。

如图3所示,随着核大小和方差的增加,高斯核(值)的分布与结果密度图的分布之间的差异增加,尤其是在拥挤场景中。对于稀疏人群场景可能不是这样,因为密度核之间的干扰最小或没有。然而,这意味着密度像素值分布高度依赖于图像,阻碍了人群密度的学习。这可以通过缩小高斯核的分布来避免,如图3所示。这也有助于去噪网络将像素值保持在预定义的范围内。宽高斯核的概率质量与结果密度图之间的差异是显著的。这可能导致许多像素值被裁剪,导致拥挤场景中的信息丢失。

上述问题可以通过窄核解决。窄核为人群计数提供了另一种途径,而不需要对密度图值求和。如图1所示,可以通过简单计算可观察核的数量来获得人群计数。为此,我们对密度图执行阈值处理并获得每个核的位置。然后,人群计数计算为位置的总数。这提供了避免生成密度图中的背景噪声并通过检测人群密度图中的这些窄核来获得人群计数的方法。与[23]中提出的从人群密度图中检测头部位置的局部最大值检测策略不同,我们的方法不依赖于任何超参数调优进行检测。

3.2. 计数联合学习

直接从图像特征回归人群计数是一项困难的任务[21],与使用代理任务进行计数相比。为了直接计算人群计数,我们考虑去噪U-Net编码器-解码器的中间特征。对于特定时间步t,将去噪网络的中间特征集合表示为Zt = {zt1,zt2,…,ztd}\mathcal{Z}_{t}\,=\,\{\mathbf{z}_{t}^{1},\mathbf{z}_{t}^{2},\ldots,\mathbf{z}_{t}^{d}\}Zt={zt1,zt2,,ztd},其中z∗\mathbf{z}^{*}z是解码器相应特征级别的表示向量。由于不同深度级别的中间表示的空间维度不兼容,对每个zt∗\mathbf{z}_{t}^{*}zt执行全局平均池化,然后将它们连接起来构建单个特征向量Zt\mathbf{Z}_{t}Zt。然后将其通过回归网络以估计不同噪声水平下的群计数。

然而,对于采样的配对(x0,y)(\mathbf{x_{0}},\mathbf{y})(x0,y),只有密度图x0\mathbf{x_{0}}x0根据噪声计划被扩散添加噪声。因此,中间特征集合Zt\mathcal{Z}_{t}Zt中的噪声水平将随时间步变化,并且扩散过程后期阶段的信噪比将低于早期阶段。因此,我们利用第2.2节讨论的加权方案来训练计数回归网络。我们使用L1\mathcal{L}_{1}L1损失如下:

L1t=λt∥ctˉ−c∥1\mathcal{L}_{\mathtt{1}}^{t}=\lambda_{t}\|\bar{c_{t}}-c\|_{\mathtt{1}}L1t=λtctˉc1

来衡量给定时间步t和给定采样配对的预测(cˉt)(\bar{c}_{t})(cˉt)与真实值©之间的差异,其中λt\lambda_{t}λt是与公式(1)中使用的相同权重因子。由于去噪模型的训练损失是所有时间步求和的蒙特卡洛近似,训练损失可以写为:

Lcount=Ex0,v,t[λt∥ctˉ−c∥1].\mathcal{L}_{c o u n t}=\mathbb{E}_{\mathbf{x_{0}},\mathbf{v},t}\left[\lambda_{t}\|\bar{c_{t}}-c\|_{\mathbb{1}}\right].Lcount=Ex0,v,t[λtctˉc1].

整体训练包括对去噪网络和回归分支参数的优化。因此,整体训练目标如下:

Loverall=Lhubrid+λcountLcount,\mathcal{L}_{o v e r a l l}=\mathcal{L}_{h u b r i d}+\lambda_{c o u n t}\mathcal{L}_{c o u n t},Loverall=Lhubrid+λcountLcount,

其中λcount\lambda_{c o u n t}λcount是计数任务的权重。

3.3. 随机人群图融合

扩散模型的随机性可以为同一人群图像生成不同的密度图实现。因此,与传统的群计数方法相比,扩散模型的计数性能可以通过多个实现来提高,这得到了基于扩散模型的其他任务的证据,如分割[10]和检测[4]。然而,与其平均不同实现的个体计数,不如将它们组合起来计算一个改进的计数,因为个体实现可能推断出其他实现中不存在的群密度。

为了组合密度图的不同实现,只有新信息应该转移到复合密度图中。为此,我们首先通过密度阈值计算密度核的位置。一旦找到这些位置,为每个密度图构建一个点图,称为“人群图”。然后,我们考虑来自不同实现的人群图之间的相异性,为了测量这一点,我们考虑结构相似性指数(SSIM)[53]。我们为每个人群图分配一个相似性分数,该分数 measured as the cumulative SSIM with the remaining crowd map realizations for each crowd map. Then, the maps will be arranged in the ascending order of the SSIM before combining. Further, we don’t require the ground truth locations to combine different realizations; they are combined depending on the similarity of the crowd maps.

考虑四个人群图。对于给定的人群图(源图),我们将测量与其余三个人群图的SSIM,并将这三个SSIM的总和分配为源图的相似性得分。如果某个图的相似性得分最高,那么它与其余图最相似,并且可能包含其余图中可用的大部分点位置。因此,可以从此最相似图添加和接收的新点是最少的。相反,具有最低相似性得分的人群图与其余图的差异最大;因此,可以从此图添加/接收的新点是最大的。因此,开始融合过程的最佳人群图是相似性得分最低的人群图。同样,我们按照相似性得分的升序对人群图进行排序以进行组合。

当融合两个人群图时,有必要拒绝重复的点位置。这是基于新点的位置与组合列表中的点进行比较来执行的。我们首先取人群图和该实现中的头部位置作为参考。接下来,我们为每个头部位置定义一个拒绝半径:

rn=β∑i=1k~rni2k~r_{n}=\beta\frac{\sum_{i=1}^{\tilde{k}}r_{n i}}{2\tilde{k}}rn=β2k~i=1k~rni

通过考虑固定范围内的k个最近邻。这里β是一个缩放因子,k是范围内的总最近邻数。接下来,我们移除下一个群点图中落在参考图中拒绝半径内的头部位置,如图4所示,其余位置被添加到参考图中。重复此过程直到所有实现都被处理完毕。

图片
图2. 整体人群计数流程。人群密度图是从人群图像的去噪扩散过程生成的。接下来,对结果的人群密度实现执行阈值处理以创建人群图。然后将人群图融合成单个人群图。计数分支在训练期间使用去噪U-Net的编码器-解码器特征并行训练,并在推理期间丢弃。
图片
图3. 高斯核(红色茎)和结果密度图(蓝色茎)的像素值变化,针对一个具有3,547人群计数的人群图像。核大小和方差从左到右增加。
图片
图4. 人群图融合标准。拒绝半径是从邻居半径内的邻居(黑色)计算的。落在拒绝半径内的新点(彩色)被移除(红色),其余(绿色)被合并到复合图中。

4. 实验细节

CrowdDiff流程。在训练期间,我们使用第3.1节中描述的窄核创建真实密度图。接下来,我们随机采样一个时间步t。然后,我们根据t处的方差采样高斯噪声并将其添加到真实图中,得到噪声图(xt)。然后,我们将图像和xt输入去噪U-Net(网络)并预测添加到真实图中的噪声。因此,基于人群图像,网络被训练来预测xt\mathbf{x_{t}}xt中的噪声。在推理期间,我们在时间T从N(0\mathcal{N}\left(\mathbf{0}\right.N(0 ,I)采样高斯噪声,用作初始噪声密度图XT。然后,网络将估计XT中存在的噪声,并通过去除该噪声,我们在时间T−1T-1T1产生噪声密度图(xT−1)(\mathbf{x_{T-1}})(xT1)。同样,我们将重复这个过程,其中在时间t的噪声密度图xt\mathbf{x_{t}}xt被用于估计在时间t−1t-1t1的噪声密度图xt−1\mathbf{x_{t-1}}xt1,直到我们为图像生成密度图(xo)。除此之外,计数分支的输出在推理期间被丢弃。

扩散过程在推理时使用1,000个时间步和DDIM采样[44]。我们使用线性噪声计划,噪声方差范围从1×10−3 到 0.021\times10^{-3}\:\mathrm{到}\:0.021×1030.02

超参数值λcount\lambda_{c o u n t}λcount设置为5×10−35\times10^{-3}5×103以匹配LhubridL_{h u b r i d}Lhubrid的值范围。计算基于SNR的权重因子时,无和k值分别设置为0.5和1。我们采用原始缩放因子1× ˉ10−3ˉ 为 λvlb1\times^{\bar{\ }}10^{-\bar{3}}\ \mathrm{为}\ \lambda_{v l b}1× ˉ103ˉ  λvlb,遵循[36]。对于人群图融合,我们将B设置为0.85,最大最近邻数为4。邻居搜索的半径限制为图像尺寸最小值的0.05。

去噪网络的训练使用ImageNet预训练权重进行初始化,用于超分辨率[38]任务,除了输入和输出层。网络针对256 × 256256\,\times\,256256×256图像训练为 2 × 105\mathrm{为}\ 2\ {\times}\ 10^{5} 2 × 105次迭代,批次大小为。我们使用AdamW优化器,固定学习率1×10−41\times10^{-4}1×104和线性预热计划5×1035\times10^{3}5×103训练步数,遵循[54]。

在六个公共数据集上执行评估:JHU-Crowd++[42]、ShanghaiTech A[59]、ShanghaiTech B[59]、UCF-CC-50[14]、UCF-QNRF[15]和NWPU-Crowd[52]。我们使用MAE和MSE作为性能指标。

5. 结果

5.1. 人群计数性能

人群计数的定量结果在表1中给出,用于所提出的方法与其他现有方法。所提出的方法在公共人群计数数据集上实现了最先进的人群计数结果,两个因素可以解释这一改进。首先,提出的使用窄核通过减轻密集区域中密度值的损失来改进了计数结果,与传统的基于密度的方法相比。其次,我们通过用阈值处理 followed by summation 代替密度求和,消除了背景噪声对人群计数的影响,这种影响随图像尺寸缩放。在JHU-Crowd++、UCF-QNRF和NWPU-Crowd数据集上的性能解释了CrowdDiff的上述效果,因为这些数据集包含密集人群场景和大图像尺寸。这得益于扩散模型能够生成与真实图更相似的准确密度图的能力。在表2中,我们提供了NWPU-Crowd数据集测试集上的性能。除了整体MAE,CrowdDiff在负样本或稀疏人群中的性能也最好,类似于检测或基于定位的方法。这是由于密度阈值处理因为能够产生没有交叉的窄核。

密度图生成与扩散模型以及人群图生成与所提出流程的定性结果在图5中呈现。如图1所示,所提出的方法和窄核可以准确地在密集区域执行计数。相比之下,其他两种方法遭受了密度损失。此外,我们提出的流程准确识别了头部位置,这对于现有的基于密度的方法和没有数据启发式的基于定位的方法是不可能的。

5.2. 消融研究

扩散模型被认为比基于GAN的方法对训练数据具有更高的保真度。从图6中,我们可以看到扩散模型生成了高质量的密度图,具有更准确的群计数,而基于GAN的方法ASCSP [40]失败了。此外,如果无法在预测的密度图中产生窄核,基于GAN的方法必须使用密度求和作为计数操作,这重新引入了噪声积累和密度损失。这突出了使用扩散模型进行人群密度图生成并以检测作为计数操作的重要性。

随机人群图生成是基于扩散的生成模型的一个关键优势。在图7中,我们为每个人群图像提供了两个实现的定性结果。从图7中,我们可以看到不同的实现包含其他实现中不存在的信息。此外,值得注意的是,使用窄核有助于产生可以包含在最终预测中的新知识。否则,如果使用较大的核,不同实现捕获的新信息将通过平均密度图而被稀释。尽管这是一个生成模型,所提出的方法在某些情况下完美地重新分配了密度,并且在某些情况下,实现之间的位置有轻微偏移。这提出了对所提出的人群图融合方法的需求,因为简单地组合这些偏移点会导致重复计数并恶化性能。

计数分支被添加以提高人群密度图的计数性能。我们在表3中展示了有和没有回归网络时个体实现的计数结果。我们考虑来自不同实现的平均错误性能,以在将它们组合成单个人群图之前识别计数分支的特征效果。添加计数分支改进了平均计数结果,并且计数结果的变化减少了。计数分支还促进了具有噪声特征的中间时间步的特征学习。

此外,我们考虑了计数分支的性能,即使它不用于预测CrowdDiff的最终计数。计数分支的错误指标在表4中提供,与最先进的弱监督人群计数方法[17,21]一起。计数分支可以被视为一个子网络,它被去噪网络的特征弱监督,在这方面,CrowdDiff的计数分支优于现有的SOTA弱监督方法。

人群图融合利用了扩散过程产生的人群密度图的随机性,并且我们采用系统的方法来融合这些图。在表5中,我们展示了三种不同方法的错误指标:随机、降序-SSIM和升序-SSIM。在随机方法中,我们按照它们产生的顺序组合图。在降序-SSIM方法中,我们按照相似性降序组合图。在升序-SSIM方法中,我们按照如上所述的相似性升序组合图。随机生成和所提出的融合方法的迭代改进如图8所示。从表5中,计数性能通过升序方法得到了改进,其中更多局部不相似的实现首先被组合。这一观察通过降序-SSIM方法与升序-SSIM和随机方法相比性能下降得到验证。

此外,多个实现的融合容易引入误报。因此,我们考虑了在融合UCF-QNRF的不同实现后的定位和计数性能。我们为此消融研究生成了四个额外的实现,相应的结果在表6中提供,以及各自的推理时间。从表6中,我们看到定位和计数性能随着多个实现而提高,证明了使用生成模型和融合来自多个实现的信息的优势。然而,更多的实现增加了推理时间,并且从四个实现到八个实现的性能增益是微不足道的,而推理时间翻了一番。因此,我们选择产生四个实现作为考虑性能和推理时间权衡的最佳设置。

密度阈值被用作密度求和的替代计数操作。两种方法之间的性能比较在表8中列出,用于每个数据集的最佳实现。从表8中,我们看到密度求和产生比阈值处理更差的计数结果,尽管两种方法使用相同的密度图。这是因为求和操作中的背景噪声积累和阈值处理方法显示出更好的噪声免疫力。

用于生成真实密度图Xo的密度核的核大小影响CrowdDiff的生成能力和性能。我们在表7中列出了不同核大小的性能。我们观察到在1x1和3x3核处有类似的性能,并且对于更大的核大小,性能显著下降。这是因为核大小影响密度图的像素值分布,并且相邻核之间的干扰在局部最大值处引入真阳性。

拒绝半径(β)和最近邻(k)影响多个实现融合的性能。不同β和k值的结果在表9中列出。拒绝标准在β值从0.80到0.85附近是稳定的。因为低β值容易包括误报或重复,而高β值也可能拒绝真阳性。然而,不同k值的性能差异不显著,并选择了性能最佳的设置。

基于扩散的模型的推理过程是迭代的,因此需要更长的推理时间。然而,由于我们对密度图进行阈值处理以计算核的数量而不是对像素密度值求和,所提出的方法对背景中的残余噪声具有鲁棒性。除了上述例外,我们使用DDIM采样将推理过程改进20倍,而不是使用原始扩散步数而没有显著的性能下降。

更多结果和细节可以在补充材料中找到。

图片
图5. 所提出方法与真实值的定性结果。预测是在组合多个实现后产生的。
表1. 在公共人群分析基准上与最先进方法的比较:JHU-Crowd++、ShanghaiTech、UCF和NWPU-Crowd。最佳结果以红色显示,次佳结果以蓝色显示。
方法出处JHU-Crowd++ShanghaiTech AShanghaiTech BUCF-CC-50UCF-QNRFNWPU-Crowd
MAE↓MSE↓MAE↓MSE↓MAE↓MSE↓MAE↓MSE↓MAE↓MSE↓MAE↓MSE↓
TopoCount [1]AAAI'2160.9267.461.2104.67.813.7184.1258.389.0159.0107.8438.5
SUA[34]ICCV'2180.7290.868.5121.914.120.6130.3226.3111.7443.2
ChfL [41]CVPR'2257.0235.757.594.36.911.080.3137.676.8343.0
MAN[24]CVPR'2253.4209.956.890.377.3131.576.5323.0
GauNet [5]CVPR'2258.2245.154.889.16.29.9186.3256.581.6153.7
CLTR[22]ECCV'2259.5240.656.995.26.510.685.8141.374.3333.8
CrwodHat [54]CVPR'2352.3211.851.281.95.79.475.1126.768.7296.9
STEERER[11]ICCV'2354.3238.354.586.95.88.574.3128.363.7309.8
PET[25]ICCV'2358.5238.049.378.86.29.779.5144.374.4328.5
CrowdDiff47.3198.947.475.05.78.2160.8225.068.9125.657.8221.2
表2. 在NWPU-Crowd测试数据集上与最先进方法的比较,包括不同场景约束和光照条件下的性能。最佳结果以红色显示,次佳结果以蓝色显示。
方法出处整体场景级别(MAE↓)光照(MAE↓)
MAE↓MSE↓NAE↓$\operatorname{Avg.}$S0S1S2S3S4$\operatorname{Avg.}$LOL1L2
BL [32]ICCV'19105.4454.20.203750.566.58.741.2249.93386.4154.7293.4102.768.0
DM-Count[50]NeurIPS'2088.4388.60.169498.0146.77.631.2228.72075.8117.6203.688.161.2
UOT[33]AAAI'2187.8387.50.185566.580.77.936.3212.02495.4127.2240.386.454.9
P2PNet[45]ICCV'2172.6331.60.192510.034.711.331.5161.02311.6107.8203.869.650.1
MAN [24]CVPR'2276.5323.00.170464.643.38.535.3190.92044.9102.2180.177.149.4
Chfl [41]CVPR'2276.8343.00.171470.156.78.432.1195.12058.0113.9217.774.549.6
CLTR[22]ECCV'2274.4333.80.165532.44.27.330.3185.52434.8106.0197.173.547.3
STEERER[11]ICCV'2363.7309.80.133410.648.26.025.8158.31814.587.2155.763.342.5
CrowdHat[11]CVPR'2368.7296.90.182371.75.36.937.8183.31625.3108.8220.466.339.6
CrowdDiff57.8221.20.120305.34.14.928.8166.21322.479.7131.853.154.3
图片
图6. 在不同人群场景下,扩散模型与基于GAN的方法(ACSCP)[40]在窄核下的生成质量和人群性能比较。
表3. 有(下半部分)和没有(上半部分)计数解码器时个体实现的错误指标。
方法JHU-Crowd++ShanghaiTechBUCF-QNRF
MAE↓MSE↓MAE↓MSE↓MAE↓MSE↓
最佳50.24206.825.908.4075.87136.85
平均52.29212.225.978.5078.35140.87
方差1.58544.17640.09260.12782.30923.7404
最佳48.24201.545.828.3072.17130.86
平均48.56202.385.858.3373.08132.33
方差0.25460.67080.02090.02890.641.0366
表4. 计数分支与其他弱监督计数方法的性能比较。
方法JHU-Crowd++ShanghaiTech BUCF-QNRF
MAE↓MSE↓MAE↓MSE↓MAE↓MSE↓
计数53.1223.57.712.076.6135.3
TransCrowd[21]56.8193.69.316.197.2168.5
MATT[17]71.5210.411.717.5122.3183.2
表5. 人群图融合方法的比较。
方法JHU-Crowd++ShanghaiTech BUCF-QNRF
MAE↓MSE↓MAE↓MSE↓MAE↓MSE↓
随机47.77200.35.788.2371.04129.03
升序-SSIM47.26198.975.748.1868.95125.65
降序-SSIM48.10201.185.818.2771.73130.15
表6. 不同实现数量下的计数和定位结果。
#时间 (ms)计数定位
MAE↓MSE↓P (%)↑R(%)↑F(%)↑
121074.59134.7868.4567.3467.89
243071.94130.4977.2475.9476.58
477068.95125.6582.1880.7981.48
8136066.97122.4483.0681.6782.36
表7. 不同核大小的性能比较。
核大小方差MAE↓MSE↓P(%)↑R(%)↑F(%)↑
1×1-69.21126.0781.7080.3281.00
3×30.568.95125.6582.1880.7981.48
5×5181.87146.5857.4356.5256.97
9×9294.68167.3234.1233.6533.88
表8. 人群计数操作和噪声影响的比较。
方法JHU-Crowd++ShanghaiTech AUCF-CC-50
MAE↓MSE↓MAE↓MSE↓MAE↓MSE↓
密度阈值处理48.24201.5447.8175.91163.56228.32
密度估计215.40515.63156.96243.70180.58254.91
噪声残差200.94502.31186.04294.4470.6899.38
表9. 不同拒绝半径(β)和最近邻(k)值的消融。
指标拒绝半径 (β) k=4最近邻 (k) $\beta=0.85$
0.750.800.850.90345
MAE↓72.269.7168.9572.0369.4168.9569.07
MSE↓130.91126.88125.65130.64126.39125.65125.84
P(%)↑79.5881.6782.1881.6481.8382.1882.01
R(%)↑78.6879.9480.7979.3680.4080.7980.55
F(%)↑79.1380.8081.4880.4881.1181.4881.27
图片
图7. 两个实现的随机人群图生成的定性结果。绿框包括在不同实现中创建的新点,蓝框包括在两个实现中存在但略有偏移的点,粉框包括完美重新分配的点。(最好在最高缩放级别下查看)
图片
图8. 人群密度图融合方法的定性结果。绿点表示合并到最终预测中的点,红点表示从每个实现中移除的点。

9 结论

我们提出了一个新颖的人群计数框架,其中密度图生成被视为一个去噪扩散过程。新框架允许使用极窄的密度核,从而可以更鲁棒地抑制人群密度图中的噪声。因此,我们在人群密度图上执行密度核检测,这比密度求和提供了更好的噪声免疫力。此外,由于生成模型的随机性,所提出的方法可以通过多个实现迭代地改进计数性能,这与其他人群计数框架不同。此外,与现有的基于密度的方法不同,我们提出的方法在头部位置分配密度核,而不需要基于定位的方法所需的数据启发式。

http://www.dtcms.com/a/604848.html

相关文章:

  • 同创企业网站源码wordpress自定义简单注册
  • 在 Android ARM64 上运行 x86_64 程序
  • 幽冥大陆(二十)屏幕录像特效增加节目效果——东方仙盟炼气期
  • 类加载机制、生命周期、类加载器层次、JVM的类加载方式
  • 数据智能开发五 技术架构
  • 免费的app软件下载网站个人网站备案 法律说明
  • MFC Check Box控件完全指南:属性设置、样式定制与高级应用
  • 广州 网站 建设支付网站建设费入什么科目
  • 西宁做网站需要多少钱wordpress怎么安装模板
  • 网站标题优化工具外贸公司电话
  • 北京北排建设公司招标网站wordpress登陆过程
  • 怎么免费做个人网站建设银行网站怎么打印明细
  • 在线设计图片网站总结郑州app拉新项目
  • 网站建设春节放假番禺免费核酸检测
  • preec网站电子商务seo实训总结
  • 优化网站浏览量怎么看网站建设方案评标原则
  • 网站设计职业工作室打开网站搜索
  • 网站建设方案书 doc织梦修改网站背景颜色
  • 网上商城建站服务商wordpress 抄袭查询
  • 网站建设设计猫和老鼠wordpress加备案号
  • 做电影网站 需要进那些群wordpress头像不同步
  • flash网站制作教程网站开发和网站运营的区别
  • 什么做直播网站sqlite开发网站
  • 沧州兼职网站建设集美区建设局网站
  • 如何把自己做的网站挂网上取公司名称大全简单大气
  • 大理市城乡建设局网站网站设计排行榜前十
  • 泉州网站建设公司首选公司哪家好东营免费网站制作
  • 制作简历哪个网站好电子书网站用dz还是wordpress
  • 毕业设计网站开发选题依据推荐几个用vue做的网站
  • 沧州网站设计公司价格logo设计报价明细表