当前位置: 首页 > news >正文

One-Shot Federated Learning with Classifier-FreeDiffusion Models

摘要

  1. 背景问题

    • 联邦学习(Federated Learning, FL)让多个客户端协同训练模型,而不需要集中数据。

    • 但传统FL需要多轮通信(客户端与服务器频繁交互),通信成本很高。

  2. 现有解决方案与问题

    • 一次性联邦学习(One-Shot Federated Learning, OSFL)只需一轮通信,大幅减少通信量。

    • 目前常见做法是服务器通过**扩散模型(Diffusion Models, DMs)**生成辅助数据或进行模型蒸馏。

    • 但多数方法使用分类器引导的扩散模型(classifier-guided DMs),这要求每个客户端额外训练分类器模型,增加计算负担。

  3. 本文提出的创新

    • 提出 OSCAR,一种无需分类器的扩散模型辅助OSFL方法。

    • OSCAR 利用**大模型(foundation models)**在每个客户端生成类别特定的数据表示。

    • 这些表示与**无分类器扩散模型(classifier-free diffusion model)**结合,用于服务器端生成辅助数据。

  4. 成果与优势

    • OSCAR 简单、成本低。

    • 在四个基准数据集上超越当前最优方法。

    • 同时将通信负载减少了至少 99%

简而言之,这段话讲的是:OSCAR是一种新的“一次通信”联邦学习方法,通过结合大模型和无分类器扩散模型,避免了额外的客户端分类器训练,显著降低通信和计算成本,同时性能优于现有方法。

引言

🧩 一、研究背景:什么是联邦学习(FL)

  • 联邦学习(Federated Learning, FL) 是一种分布式机器学习方法:
    多个客户端(如手机、医院、IoT设备)在不共享原始数据的前提下,协同训练一个全局模型

  • 它的优势是:保护数据隐私、避免数据集中带来的安全与合规问题。

  • 因此,FL 被广泛应用于:

    • 自动驾驶(autonomous vehicles)

    • 物联网(IoT)

    • 医疗健康(healthcare)


⚙️ 二、传统联邦学习的主要问题

  • 不同客户端的数据通常是 非独立同分布(non-IID),即每个客户端的数据分布不一样。

  • 这导致全局模型需要经过**多轮通信(多次客户端–服务器参数交换)**才能收敛。

  • 多轮通信带来高通信开销

  • 虽然已有一些方法(如客户端选择、梯度压缩、梯度丢弃)可以减少每轮通信负载,但仍需多轮同步,且在非IID情况下效果受限(模型容易“漂移”)。


🚀 三、一次性联邦学习(OSFL)的优势与挑战

  • 一次性联邦学习(One-Shot Federated Learning, OSFL) 只需 一轮通信

  • 优点:

    • 大幅减少通信开销。

    • 对非IID数据更鲁棒(全局模型不是直接由客户端模型合并得出)。

    • 能应对客户端掉线或延迟问题(client dropout, stragglers)。

  • 现有OSFL主要有两类方法:

    1. 知识蒸馏(Knowledge Distillation):需要一个公共数据集作为知识中介;

    2. 数据生成(Dataset Generation):利用**生成模型(如扩散模型,DM)**来合成数据。


💡 四、现有DM辅助OSFL方法的问题

  • 现有方法大多使用 分类器引导的扩散模型(classifier-guided DMs)
    存在两大问题:

    1. 需要每个客户端额外训练分类器模型,增加计算和通信负担

    2. 有时还需要把扩散模型下载到客户端,进一步增加成本


🧠 五、本文的创新:OSCAR 方法

  • 提出 OSCAR(One-Shot Federated Learning with Classifier-Free Diffusion Models)

  • 主要创新点:

    1. 用分类器自由的扩散模型(classifier-free DMs) 替代需要分类器的DM;

    2. 利用基础模型(Foundation Models, FMs) 直接生成类别特征编码(category-specific encodings),无需训练或微调;

    3. 服务器端生成数据,再用生成的数据训练全局模型;

    4. 通信负载减少99%,因为客户端上传的只是轻量级特征编码;

    5. 在四个基准数据集上性能优于当前最优方法(SOTA)。

相关工作

🧩 A. One-Shot Federated Learning(一次性联邦学习)

这一部分回顾了已有的 OSFL 方法,并将它们分为两大类:

1️⃣ 基于知识蒸馏的方法(Knowledge Distillation-based OSFL)

这些方法通过数据蒸馏模型蒸馏来训练全局模型:

  • DOSFL [15]
    客户端生成并上传“蒸馏后的合成数据(distilled synthetic data)”,
    服务器用这些数据来训练全局模型。

  • FedKT [24]
    每个客户端使用公共辅助数据集(public auxiliary dataset)
    和“师生模型(student-teacher models)”结构来训练,
    最终服务器聚合出一个全局学生模型(global student model)。

👉 总体思路:客户端提供知识(通过数据或模型蒸馏),服务器利用这些知识训练全局模型。


2️⃣ 基于辅助数据生成的方法(Data Generation-based OSFL)

这些方法依靠服务器端的数据生成来形成全局模型,
客户端只需上传中间信息(如模型参数、特征或分类器):

  • DENSE [14]
    客户端训练生成器(generator)与本地分类器配合,
    服务器利用这些生成器生成辅助数据训练全局模型。

  • FedCVAE [25]
    每个客户端训练条件变分自编码器(CVAE),
    服务器聚合各客户端的解码器部分,用来生成新数据。

  • FedDiff [17]
    客户端训练扩散模型(Diffusion Models, DMs),
    服务器聚合这些DM形成全局生成模型用于数据生成。

  • FedCADO [13]
    客户端训练分类器,服务器使用**分类器引导的扩散模型(classifier-guided DMs)**生成数据。

  • FedDISC [26]
    使用客户端上传的数据特征(data features),结合预训练的DMs生成新数据。

👉 总体思路:服务器利用客户端上传的模型或特征,通过生成模型(如扩散模型)合成辅助数据,用于全局训练。


🧠 B. Federated Learning with Foundation Models(基础模型在联邦学习中的应用)

这一部分讨论了 基础模型(Foundation Models, FMs)
(包括大语言模型 LLMs 和视觉语言模型 VLMs)在联邦学习中的应用探索。

主要研究方向与示例

  • Yu et al. [27]、Charles et al. [28]:探索在联邦学习环境中训练FMs

  • PromptFL [29]:研究在数据稀缺的FL环境下的提示学习(prompt learning)

  • FedDAT [30]:提出了一种多模态FMs的联邦微调方法(federated fine-tuning)

  • FedPCL [31]:将FMs融入传统FL流程,作为**类原型提取器(class-wise prototype extractors)**使用。

总结

虽然FMs在减少数据异质性、降低通信开销方面具有巨大潜力,
但目前它们在联邦学习中的应用仍然研究不足,未被充分利用


总体总结

这一节主要讲:

  • (上半部分) 回顾了现有的OSFL方法,分为:

    • 基于知识蒸馏的;

    • 基于服务器端数据生成的(通常使用扩散模型等生成器)。

  • (下半部分) 讨论了基础模型(如LLMs、VLMs)在联邦学习中的早期探索,
    并指出它们虽然有潜力减少通信和异质性问题,但目前仍未充分开发利用。

前提知识

🧩 一、扩散模型的基本思想

  • 扩散模型(Diffusion Models, DMs),尤其是 去噪扩散概率模型(DDPM, Denoising Diffusion Probabilistic Models),是一类生成模型

  • 它通过逐步加入噪声再逐步去噪来学习数据分布。

  • 模型的目标是从随机噪声中重建出逼真的数据样本(如图像)

OSCAR 方法的设计与流程说明

🧩 一、研究目标与总体思路

  • 传统联邦学习(FL)需要多轮通信来聚合各客户端的模型,通信开销大。

  • OSCAR 旨在解决这个问题:

    • 利用基础模型(Foundation Models)无分类器扩散模型(Classifier-Free Diffusion Models)

    • 让服务器仅通过一次通信,就能生成反映各客户端数据分布的合成数据集,

    • 再用这些数据训练出全局模型。

因此,OSCAR 是一种高效、低通信成本的 One-Shot 联邦学习方法


⚙️ 二、OSCAR 总体流程(四个步骤)

论文中提到 OSCAR 流程可分为四步(如 Fig. 2 所示):

Step 1: 客户端生成数据描述(Description Generation)

  • 每个客户端不再训练分类器(区别于传统的 classifier-guided 方法)。

  • 而是用视觉语言模型(VLM)BLIP 为本地图片生成文字描述。

    例如,一张猫的图片可能生成描述 “a small orange cat sitting on a couch”。

对比维度传统FL / OSFLOSCAR创新
客户端任务模型训练 + 分类器训练仅生成描述和编码,无需训练
通信负载高(上传模型参数)极低(上传特征向量)
生成模型类型分类器引导DM无分类器扩散模型
服务器端任务模型聚合或蒸馏通过Stable Diffusion生成全局数据
数据异质性适应强(特征条件生成)
效果需多轮通信一轮即可达到SOTA性能

实验准备

🧩 一、Datasets(数据集)

作者使用了三个具有代表性的数据集来评估 OSCAR 的性能:

1️⃣ NICO++ [37]

  • 图像大小:224×224,包含 60 个类别

  • 每个类别都有来自不同域(domain)的图像,用于模拟数据异质性。

  • 有两种设置:

    • Common NICO++:所有类别共享相同的 6 个域
      [autumn, dim, grass, outdoor, rock, water]

    • Unique NICO++:每个类别拥有自己独特的域集合
      → 更强的非IID特性(客户端间数据差异更大)。

  • 🔍 用途:测试模型在异构环境下(数据分布不同)学习的能力。


2️⃣ DomainNet [38]

  • 包含 345 个类别,跨越 6 个域(如 clipart、real、sketch、painting 等)。

  • 作者选用了其中 90 个类别的子集

  • 🔍 用途:用于多领域的跨域泛化实验。


3️⃣ OpenImage [39]

  • 一个多任务数据集,包含 600 个类别,共 170 万张图像

  • 本实验选用了 120 个类别的子集(参照 [13] 的预处理方式)。

  • 🔍 用途:评估 OSCAR 在大规模、多类别场景下的表现。


⚙️ 二、Data Division(数据划分方式)

作者采用 非独立同分布(non-IID) 的划分策略,以更贴近真实的联邦学习场景。

  • 总体原则:每个客户端的数据来自不同域或类别分布

  • 具体划分:

    • NICO++ 和 DomainNet:
      每个客户端仅拥有每个类别的一个特定域的数据(例如客户端A有“dog-autumn”,客户端B有“dog-water”)。
      → 造成 特征分布偏移(feature distribution skew)

    • OpenImage:
      将 120 个类别划分为 6 个子组,每个客户端从每个子组中选 1 个类别。
      → 保证每个客户端都有不同类别的数据。

  • 客户端数量固定为 6,与上述数据集的域数一致。

🔍 目的:在数据强异质(non-IID)环境下验证 OSCAR 的稳健性。


⚖️ 三、Baselines(对比方法)

为了验证 OSCAR 的有效性,作者选择了三类基线方法:

1️⃣ Local Learning(本地学习)

  • 每个客户端独立训练模型,不进行任何通信或协作。

  • 代表“无联邦学习”的下界。

2️⃣ Traditional Federated Learning(传统联邦学习)

  • 使用多轮通信的经典算法:

    • FedAvg [1]:标准联邦平均算法;

    • FedProx [40]:在本地目标函数中加入近端项以稳定训练;

    • FedDyn [41]:通过动态正则化缓解客户端漂移问题。

3️⃣ DM-assisted OSFL(基于扩散模型的一次性联邦学习)

  • FedDISC [26]FedCADO [13]

    • 使用扩散模型生成辅助数据;

    • 需要在客户端训练分类器或生成器(带来额外计算负担)。

  • 🔍 对比目的:展示 OSCAR 在无需分类器、通信量更低的情况下能否达到或超越这些最先进方法。


总结

这段主要讲:

作者在三个具有代表性的数据集(NICO++、DomainNet、OpenImage)上进行实验,采用非IID数据划分(每个客户端数据分布不同),并将 OSCAR 与多种基线方法进行对比,包括本地训练、传统联邦学习方法(FedAvg/FedProx/FedDyn)以及基于扩散模型的最新一次性联邦学习方法(FedDISC、FedCADO)。

实验结果

🧩 a) Main Results(主要结果)

这一部分介绍了 OSCAR 与各基线方法的整体性能对比。

实验设置与对比方法

  • 所有方法都在四个基准数据集上进行比较。

  • 本地学习(Local)传统FL方法(FedAvg、FedProx、FedDyn)
    → 使用原始真实图像训练。

  • DM辅助方法(FedCADO、FedDISC) 以及 OSCAR
    → 使用扩散模型合成数据训练全局模型。

  • 所有测试均在真实测试集上进行评估。

  • 性能指标为 Top-1 Accuracy(准确率)

主要发现

  • OSCAR 在所有数据集上都优于基线方法(见 Table I)。

  • 不仅平均准确率更高,在不同域(domain)或客户端的测试集上也表现更优。

  • 在 NICO++ 与 OpenImage 等真实图像数据集上提升更明显。

  • 在 DomainNet 的素描(sketch)和卡通(clipart)域上略低,但传统FL方法在这些域上也表现不佳。

实验细节

  • 所有实验的分类器均为 ResNet-18

  • 每个客户端每类图片数量固定为 30

总结:

OSCAR 在四个基准数据集上均优于传统FL和其他DM辅助OSFL方法,在非IID场景下展现出稳定的全局性能。


🧠 b) Classifier Networks(不同分类器结构的影响)

这一部分分析不同模型架构对合成数据性能的影响。

主要内容

  • 主实验使用 ResNet-18,便于与现有方法比较。

  • 为验证生成数据的潜力,作者在 NICO++ Unique/Common 数据集上尝试不同模型:

    • ResNet 系列(如 ResNet-50, ResNet-101)

    • Vision Transformer (ViT B-16)

  • 结果(见 Table II)显示:

    • 更强的网络(如 ResNet-101、ViT-B16)能更好利用合成数据;

    • 随着每类样本数增加,性能进一步提升。

结论:

OSCAR 生成的数据质量较高,可被更复杂模型更好地利用,从而提升全局模型性能。


📊 c) Number of Generated Images(生成样本数量的影响)

这一部分分析生成数据数量对模型性能的影响。

主要发现

  • 随着生成样本数量增加,模型准确率最初上升;

  • 当样本数超过一定阈值后,性能趋于稳定甚至略有下降。

  • 说明生成数据的作用主要是辅助增强(auxiliary),而非完全替代真实数据。

结论:

生成数据在合理规模下有助于性能提升,但过多样本不会带来持续收益,可能引入噪声或冗余信息。


📡 d) Communication Analysis(通信开销分析)

这一部分展示了 OSCAR 的通信效率优势

核心结果

  • OSCAR上传的参数量最少,因为:

    • 客户端只需上传类别特征编码(512维)

    • 不需要上传分类器或模型权重。

  • 对比:

    • FedCADO:每个客户端上传约 1169万参数(11.69M)

    • FedDISC:比 FedCADO 减少 60% 以上,但仍比 OSCAR 大约 100 倍;

    • OSCAR:每类只需上传 512个参数,上传量不足1%。

  • 随着客户端数量增加,OSCAR 的优势更加显著。

结论:

OSCAR 在保持高性能的同时,大幅降低通信负担(>99% 减少),适合大规模、低带宽的联邦环境。


🏁 总体总结

这部分主要展示了 OSCAR 在性能、可扩展性和通信效率上的全面优势:

维度

结果总结

模型准确率

所有数据集均优于基线方法

模型结构适应性

生成数据能被更强网络充分利用(ResNet-101、ViT表现最好)

生成数据量影响

性能先升后稳,生成数据最适合作为辅助训练数据

通信成本

上传参数量减少 ≥99%,远低于现有方法(FedCADO/FedDISC)

http://www.dtcms.com/a/531855.html

相关文章:

  • powershell终端在ide里默认位置不对
  • 探索Linux进程:从理论到实践
  • 正则化机制解析:L2 的约束逻辑与 L1 的特征选择
  • 股票与期货战法理论发展路径
  • 用Python手写一个能识花的感知器模型——Iris分类实战详解
  • MySQL笔记16
  • gRPC通信流程学习
  • 百度站长平台有哪些功能网站做权重的好处
  • 数据科学复习题2025
  • 牛客网 AI题​(二)机器学习 + 深度学习
  • 拆解AI深度研究:从竞品分析到出海扩张,这是GTM的超级捷径
  • HarmonyOS 环境光传感器自适应:构建智能光线感知应用
  • 护肤品 网站建设策划shopex网站经常出错
  • 机器人描述文件xacro(urdf扩展)
  • AI决策平台怎么选?
  • 当 AI 视觉遇上现代 Web:DeepSeek-OCR 全栈应用深度剖析
  • 紫外工业相机入门介绍和工业检测核心场景
  • 商业求解器和开源求解器哪个更适合企业?
  • 比尤果网做的好的网站深圳网站设计精选刻
  • WPF 控件速查 PDF 笔记(可直接落地版)
  • Selenium+Unittest自动化测试框架
  • 设计模式-命令模式(Command)
  • 设计模式-外观模式(Facade)
  • web自动化测试-selenium_01_元素定位
  • 苏州建设工程信息网站wordpress自动生成tag
  • 学习C#调用OpenXml操作word文档的基本用法(1:读取样式定义)
  • Java-Spring入门指南(二十八)Android界面设计基础
  • Go 语言类型转换
  • 【Windows】goland-2024版安装包
  • 快速入门elasticsearch