当前位置: 首页 > news >正文

【论文阅读】Efficient and secure federated learning against backdoor attacks

Efficient and secure federated learning against backdoor attacks -- 高效且安全的可抵御后门攻击的联邦学习

  • 论文来源
  • 问题背景
  • TLDR
  • 系统及威胁模型
    • 实体
    • 威胁模型
  • 方法展开
    • 服务器初始化
    • 本地更新
    • 本地压缩
    • 高斯噪声与自适应扰动
    • 聚合与解压缩
    • 总体算法
  • 总结
    • 优点
    • 缺点

论文来源

名称Efficient and secure federated learning against backdoor attacks
期刊TDSC 2024
作者Yinbin Miao;Rongpeng Xie;Xinghua Li;Zhiquan Liu, Member, IEEE;Kim-Kwang Raymond Choo , Senior Member, IEEE;Robert H. Deng , Fellow, IEEE
DOIDOI: 10.1109/TDSC.2024.3354736

问题背景

  • 隐私泄露: 联邦学习(FL)中,客户端上传的模型更新(即使不是原始数据)也可能泄露其本地数据的敏感信息。
  • 后门攻击: 由于FL的分布式特性,恶意客户端可以上传带有后门触发器的模型更新,使得最终的全局模型在遇到特定触发器时产生错误输出。
  • 通信开销: DNN(Deep Neural Networks)模型参数量巨大,导致客户端上传模型更新时产生高昂的通信成本。
  • 本地差分隐私 (LDP) 的局限性:
    • 非自适应性: 传统LDP方法(如添加高斯噪声)通常对所有参数施加相同强度或随机强度的噪声,可能对关键参数造成过度扰动,严重损害模型效用。一些改进方案(如[LDP-FL])虽考虑了分层特性,但仍不够精细(例如,同一层参数仅扰动到两个固定值)。
    • 效用损失: 为了抵抗后门攻击,有时需要较强的噪声,这会进一步降低模型准确率。

TLDR

论文提出了一种名为 ESFL 的方案,通过结合==自适应本地差分隐私 (Adaptive LDP) ==和 ==压缩感知 (Compressive Sensing, CS) ==来应对上述挑战。

  • 自适应 LDP 核心思想:
    • 两阶段噪声添加:
      1. 首先,在本地对模型参数(或更新)添加传统的高斯噪声,这为抵抗后门攻击提供基础防御。
      2. 然后,利用一种更精细的自适应扰动函数来“调节”已添加的高斯噪声。这个自适应函数会考虑DNN模型每层参数的实际分布(计算每层的范围中心 c l c_l cl 和半径 r l r_l rl),并根据每个参数值与其层范围中心的偏移量 μ \mu μ 来进行扰动。这种方法旨在更智能地控制噪声的规模,减少对模型效用的过度损害。论文强调了先加高斯噪声再进行自适应调节的顺序至关重要。
  • 压缩感知 (CS):
    • 在客户端对模型更新进行噪声扰动之前,先使用离散余弦变换 (DCT) 压缩感知技术对其进行压缩,从而显著减少上传到服务器的数据量,降低通信开销。
    • 服务器在聚合了所有客户端的压缩更新后,再进行一次性的解压缩

系统及威胁模型

实体

系统结构如图:
图2

  • 服务器作为聚合器,负责收集 N t N_t Nt 个本地模型更新并将其聚合为全局模型更新以优化全局模型。在本文方案中,它还需要执行解压操作。
  • 非恶意客户端是隔离的设备,负责在干净数据集上进行本地模型训练、压缩和噪声添加。
  • 恶意客户端将使用其选择的触发器在有毒数据集上进行本地模型训练,然后在上传之前压缩并放大模型更新。并且,他们不添加噪声

威胁模型

  • 服务器是半诚实的,它诚实地聚合所有上传的本地模型更新,不会遗漏任意一个客户端的数据,但它可以通过在每个通信回合中跟踪本地全局模型更新来侵犯客户端隐私,从而推断出关于任何客户的信息。
  • 客户端被分为两类:半诚实和恶意。前者诚实地遵循算法,但从全局模型中推断其选择的受害者的私人信息。后者则在其数据注入或改变带有精心设计触发器的实例,并使用后门训练有害模型。
  • 本文的威胁可以总结如下:
    • 客户端数据隐私泄露:如果模型更新以明文形式传输,半诚实的服务器和半诚实客户端可能会推断出训练数据的私人信息。
    • 后门攻击:对于恶意客户端,他们会对模型训练过程发起后门攻击,使模型误分类带有触发器的输入。
    • 模型效率降低:后门攻击可能导致部分测试样本被误分类,从而损害模型的效用。

方法展开

服务器初始化

  • 服务器会对所有客户端发放一个初始模型。
  • 此外,服务器会为客户端模型的每一层协商一个数值区间: [ c l − r l , c l + r l ] [ c_l-r_l , c_l + r_l ] [clrl,cl+rl] 以及一对集合 ( C , R ) (C,R) (C,R),其中 l ∈ [ 1 , L ] l\in [1,L] l[1,L] L L L 表示网络层数, C C C 表示包含 L L L 个范围中心的集合, R R R 表示包含 L L L 个对应范围半径的集合。

本地更新

在每一轮,服务器从 N N N 个客户端中选定 N t N_t Nt 个客户端参与训练。
如果是恶意客户端,在训练结束后会进行后门攻击。

算法1

本地压缩

客户端更新训练之后,会对参数改变量进行参数压缩,压缩率为 C R ∈ ( 0 , 1 ) CR\in (0,1) CR(0,1) ,将每一层的参数量以相同的压缩率进行参数压缩。
算法2

高斯噪声与自适应扰动

在非恶意客户端得到 c i t c_i^t cit 后,为了抵御后门攻击,非恶意客户端首先为每一层的参数添加高斯噪声。然后进行自适应噪声的添加:

  • 客户端首先计算每层的范围区间 [ c l − r l , c l + r l ] [ c_l-r_l , c_l + r_l ] [clrl,cl+rl]:
    eq10

  • 然后计算偏移: μ \mu μ
    μ = w − c l \mu = w-c_l μ=wcl

  • 如果改写上式: w = c l + μ w=c_l+\mu w=cl+μ ,可以发现权重 w w w 的扰动本质上是偏移量 μ \mu μ 的扰动。

  • 类似LDP-FL,ESFL将扰动函数 M M M 设计为分段函数,根据不同条件以不同方式扰动不同的权重。

    • 首先,基于隐私预算计算伯努利变量 b b b 的分布概率:
      eq12
    • 然后非恶意客户端从满足上述概率的伯努利分布中随机抽样,并按如下方式扰动权重 w w w.
      eq13

算法3

聚合与解压缩

在非恶意客户端 进行本地训练、压缩和添加噪声后,它将压缩后的扰动本地模型更新 p i t p_i^t pit 上传至服务器。需要注意的是,恶意客户端不会对其 c i t c_i^t cit 添加噪声。

  • 当服务器收集到 N t N_t Nt 个本地模型更新后便开始聚合,然后再进行解压缩。
  • 压缩的全局模型: y t = ∑ i = 1 N t p i t y^t=\sum_{i=1}^{N_t}p_i^t yt=i=1Ntpit
    在算法 4 中,用 y ∗ , l t y_{*,l}^t y,lt 表示 y t y^t yt 的第 l l l 层权重,用 Δ w ∗ , l t \Delta w_{*,l}^t Δw,lt 表示最终完整全局模型更新 Δ w t \Delta w^t Δwt 的第 l l l 层更新。
  • 服务器首先计算第 l l l 层权重的压缩数 m l m_l ml,然后根据压缩比 C R CR CR 获取原始数字 n l n_l nl,最后在逆离散余弦变换后对 y ∗ , l t y_{*,l}^t y,lt 进行解压。在获得 L L L 个重构的 Δ w ∗ , l t \Delta w_{*,l}^t Δw,lt 后,服务器将其组装成完整的全局模型更新 Δ w t \Delta w^t Δwt,并更新全局模型 w t = w t − 1 + ς N ⋅ Δ w t w^t = w^{t−1} + \frac{\varsigma}{N} \cdot \Delta w^t wt=wt1+NςΔwt

总体算法

ESFL的总体流程如图:
图4
总体算法如:
算法5

总结

  • ESFL通过巧妙地结合自适应LDP和压缩感知,在抵抗后门攻击、保护隐私、维持模型效用和提高通信效率方面取得了显著的平衡和改进。然而,这种平衡是以增加一定的计算复杂度和参数调优难度为代价的,并且仍受到差分隐私和有损压缩固有局限性的影响。

优点

  • 增强的后门攻击防御能力
    • 通过高斯噪声和自适应扰动的两阶段机制,ESFL能比仅依赖一种噪声或简单自适应机制(如CAFL)更有效地抵抗后门攻击,其攻击成功率 (ASR) 较低。
    • 自适应机制使得噪声能更好地针对潜在的恶意操纵进行调整。
  • 改进的隐私保护下模型效用
    • 相较于传统的、非自适应的本地差分隐私 (LDP) 方法(如仅添加固定强度或随机高斯噪声),ESFL的自适应扰动机制能更精细地控制噪声,减少对模型关键参数的过度损害,从而在保证 ϵ \epsilon ϵ-LDP 的同时,更好地保持模型在主任务上的准确率。
  • 通信效率高
    • 通过采用压缩感知 (CS) 和离散余弦变换 (DCT),在客户端上传模型更新前对其进行压缩,显著减少了上行链路的通信开销,这对于资源受限的客户端和大规模联邦学习系统尤为重要。
  • 更精细的自适应性
    • ESFL的自适应扰动不仅考虑了DNN的分层特性,还考虑了每层内每个参数相对于该层范围中心的偏移量,实现了比先前方案(如[9]中将同一层参数扰动到固定两个值)更细致的噪声控制。
  • 形式化的隐私保障
    • 论文提供了ESFL满足 ϵ \epsilon ϵ-LDP 的形式化数学证明。

缺点

  • 增加的计算复杂度
    • 客户端: 需要执行DCT、CS压缩以及两阶段的噪声添加,比简单加噪方案计算量更大。
    • 服务器端: 需要执行CS解压缩(包括聚合后的恢复和IDCT),这可能比简单聚合更耗时。
    • 自适应扰动需要计算每层的参数范围中心和半径,也带来额外开销。
  • 参数调优的复杂性
    • ESFL引入了多个需要仔细调整的超参数,如隐私预算 ϵ \epsilon ϵ、压缩率CR、高斯噪声的标准差等。这些参数的最优选择可能依赖于具体任务、数据集和模型架构,找到最佳组合可能具有挑战性。
  • 压缩感知的固有局限性
    • CS是一种有损压缩技术。虽然DCT有助于提高模型更新的稀疏性,但并不能保证完美恢复,尤其是在压缩率较高或模型更新并非高度稀疏时。恢复误差可能会影响最终模型的精度。
    • CS恢复算法本身的计算开销也可能较大。
  • 噪声的固有影响
    • 尽管ESFL致力于优化噪声的添加,但任何差分隐私机制引入的噪声都会不可避免地对模型效用造成一定程度的损害,相较于没有隐私保护和攻击的理想情况,准确率仍会有所下降。
  • 对模型和数据特性的依赖
    • DCT对模型更新的稀疏化效果可能因模型结构和数据特性的不同而异,这会影响CS的压缩性能和恢复质量。
    • 自适应扰动的有效性也依赖于对各层参数范围的准确估计。
  • 防御范围的特定性
    • ESFL主要针对特定的后门攻击进行设计和优化。虽然LDP提供了通用的隐私保护,但其针对其他类型的攻击(如更广泛的投毒攻击、模型推断攻击等)的防御效果可能需要进一步评估。

相关文章:

  • Client 和 Server 的关系理解
  • 【AI智能推荐系统】第七篇:跨领域推荐系统的技术突破与应用场景
  • AI预测3D新模型百十个定位预测+胆码预测+去和尾2025年5月10日第73弹
  • 如何避免在CMD中分段发送问题导致大模型多段回复的问题?
  • 解密数据结构之位图和布隆过滤器
  • 【Redis进阶】持久化
  • 每日算法刷题Day1 5.9:leetcode数组3道题,用时1h
  • [6-2] 定时器定时中断定时器外部时钟 江协科技学习笔记(41个知识点)
  • (四)毛子整洁架构(Presentation层/Authentiacation)
  • 问题解决思路:numpy:DLL load failed
  • QSFP+、QSFP28、QSFP-DD接口分别实现40G、100G、200G/400G以太网接口
  • AUTODL Chatglm2 langchain 部署大模型聊天助手
  • 《用MATLAB玩转游戏开发:从零开始打造你的数字乐园》基础篇(2D图形交互)-《打砖块:向量反射与实时物理模拟》MATLAB教程
  • 【数据结构与算法】图的基本概念与遍历
  • 离线化 Service Worker
  • yocto的大致工作流程
  • [SV]等待32个instance的某一个信号的pulse,该怎么写?
  • 【LeetCode 热题 100】215. 数组中的第K个最大元素(Python 快速选择详解)
  • 探索C++内存管理
  • UE5 PCG学习笔记
  • 央行:货币与物价的关系受多重因素影响,提振物价的关键在于扩大有效需求
  • 体坛联播|曼联热刺会师欧联杯决赛,多哈世乒赛首日赛程出炉
  • 李公明︱一周书记:浪漫主义为什么……仍然重要?
  • 暴雨及强对流天气黄色预警已发布!南方进入本轮降雨最强时段
  • 媒体起底“速成洋文凭”灰产链,专家:我们要给学历“祛魅”
  • 中国证监会印发《推动公募基金高质量发展行动方案》