当前位置: 首页 > news >正文

【论文阅读】Adversarial Patch Attacks on Monocular Depth Estimation Networks

一、背景

单目深度估计是CV领域一个比较热门的研究方向,但是现有的方法过度依赖于非深度特征,使得单目深度估计的模型容易受到外界的攻击,针对这一问题该论文设计了一种攻击贴图的方法,用于攻击深度学习实现的单目深度估计模型。通过对特定区域增加扰动,来使得攻击位置附近的深度输出趋近于我们预设的值。

二、攻击方法

在这里插入图片描述
和现有的针对CNN的攻击方法很像,这篇文章的攻击方法使用的扰动+贴图的方法,通过在图像上叠加一个贴图,来最大化攻击区域的深度偏差,为了让攻击能够部署在现实中,作者还将成像的过程纳入到了损失函数的构建中。

攻击目标

总的来说,该论文攻击的目标就是让深度估计尽可能偏离真实值。这里作者规定I为模型的输入图像,F为模型的推理,得到的深度为D。原始的贴图被记为P,通过Tθ的调整之后进行叠加。根据这个定义,最主要的损失函数被定义为:
在这里插入图片描述
其中dt表示的是预设的深度,后面的一半表示的是模型在叠加扰动之后的输出。可以看出这部分损失函数的目标就是让模型输出的深度尽可能接近我们设置的深度值dt。模型调整Rθ区域内的像素的扰动,让深度的输出尽可能接近dt。在调整的过程中,扰动一共有四个参数可以进行调整:随机亮度变化(random brightness shift),对比度(contrast shift),噪声(addition of noise)以及尺度(scaling),通过在小范围内进行微调,实现扰动的内容上的变化。之后再对扰动进行形状上的改变,通过透视变换对原本的矩形区域进行调整:
在这里插入图片描述

损失函数

整个攻击的损失函数一共包括三部分,第一部分是上一节说的深度损失,即让深度估计值尽可能接近预设的值。
在这里插入图片描述
对于使用多模型进行攻击时,我们也可以尝试多模型下的深度损失,也就是将上面的公式扩展到多个模型中:
在这里插入图片描述
为了考虑到模型部署在现实中的需求,作者引入了NPS损失来调整攻击图像的色域,让打印出来的图像的色彩尽可能接近原始值:
在这里插入图片描述
最后作者加了一项平滑约束,让攻击图像尽可能平滑,或者说相邻元素之间的梯度尽可能小:
在这里插入图片描述
最终三项损失加权叠加,就能组成最终的损失函数:
在这里插入图片描述

相关文章:

  • 硬件地址反序?用位操作为LED灯序“纠偏”。反转二进制数即可解决
  • TCP/IP协议中三次握手(Three-way Handshake)与四次挥手(Four-way Wave)
  • 2025年跨网文件交换系统推荐:安全的内外网文件传输系统Top10
  • 01-1 音视频知识学习(音频)
  • 【Java代码审计 | 第十四篇】MVC模型、项目结构、依赖管理及配置文件概念详解
  • 九、Prometheus 监控windows(外部)主机
  • How To Change Windows VPS Password
  • 【k8s001】K8s架构浅析
  • 网页制作16-Javascipt时间特效の设置D-DAY倒计时
  • 基于KL-ISODATA算法的电力负荷数据场景聚类matlab仿真
  • ElasticSearch组合查询及实际应用
  • 交换机控制软件的实现步骤猜测
  • 安装教程整理 docker linux 虚拟机
  • Podman 1panel中容器管理docker替换为Podman
  • Linux shell 进度条
  • Nerf较真系列
  • Mybatis3 批量执行操作
  • 豆包API的部署和实战|基于 Selenium 的抖音自动化评论系统开发实践
  • 算法题刷题方法记录(蓝桥杯、Leetcode)
  • 算法练习(链表)
  • 著名医学翻译家王贤才逝世,享年91岁
  • AI世界的年轻人|他用影像大模型解决看病难题,“要做的研究还有很多”
  • 泽连斯基:美乌矿产协议将提交乌拉达批准
  • 全文丨中华人民共和国民营经济促进法
  • 摩根大通任命杜峯为亚太区副主席,加码中国市场业务布局
  • 排除燃气爆炸、人为放火可能,辽宁辽阳火灾事故起火原因正在调查