当前位置: 首页 > news >正文

《PEFLL: Personalized Federated Learning by Learning to Learn》——论文阅读

研究背景

   个性化联邦学习(pFL)试图为每个客户端训练专属模型,但现有方法普遍存在以下问题:

  • 新客户端需要本地微调或训练,延迟高、计算重;

  • 对低数据客户端不友好,容易过拟合;

  • 通信开销大,客户端需多次与服务器交互;

  • 扩展性差,如客户端数量巨大时难以管理。

核心思想:

        学习一个“学习算法”,即通过两个神经网络协同工作:

  • 嵌入网络(Embedding Network):

        将客户端的数据映射为一个低维向量,捕捉该客户端的数据分布特征。以客户端本地数据样本进行输入,转化为固定维度的向量进行输出。

        如果两个客户端的数据分布相似,它们的向量也会很接近,从而让超网络为它们生成相似的模型。

  • 超网络(Hypernetwork):

        以嵌入向量作为输入,一次性输出该客户端的完整个性化模型参数(无需再训练)。

客户端数据 → 嵌入网络 → 向量
向量→ 超网络 → 个性化模型参数 θ
客户端直接使用 θ,无需训练

【嵌入网络负责“看懂”客户端的数据分布,超网络负责“定制”出专属于这个客户端的模型。】

步骤:

预测阶段:

  1. 服务器每轮随机选一批客户端,把当前嵌入网络参数广播给这几个客户端。

  2. 客户端用本地数据计算嵌入向量,回传服务器;

  3. 服务器用超网络为每个客户端生成模型,再把模型传给客户端;

  4. 客户端用本地数据训练模型几步(知道之后要往哪个方向进行调节);

  5. 客户端将梯度传给服务器;

  6. 服务器使用链式法则反向传播 更新嵌入网络和超网络参数。

  7. 服务器将更新的个性化模型参数分给所抽选的客户端

用所有客户端的数据来“教会”服务器端的超网络,让它以后仅凭任何客户端上传的嵌入向量,就能立刻吐出专属模型参数。

推理阶段:

  1. 新客户端用本地数据计算嵌入向量(一次前向);

  2. 服务器用超网络生成个性化模型,并传给客户端;

  3. 客户端直接使用该模型,无需训练


一个传来传去 比较绕的个性化联邦模型

http://www.dtcms.com/a/335559.html

相关文章:

  • 数据电台询价的询价要求
  • 论文阅读-Gated CRF Loss for Weakly Supervised Semantic Image Segmentation
  • 【前端面试题】JavaScript核心面试题解析
  • Linux安装及远程连接知识实践
  • 【*正确*题解|两种做法】 [JLOI2013] 洛谷 P3256 赛车[半平面交/单调栈]
  • OmniDrive论文速读
  • 在云服务器上部署springBoot+vue前后端分离项目
  • 数据结构代码分享-1 顺序表
  • 数字人视频互动技术对比
  • 云计算-k8s实战指南:从 ServiceMesh 服务网格、流量管理、limitrange管理、亲和性、环境变量到RBAC管理全流程
  • Day07 缓存商品 购物车
  • 【远程桌面】从RustDesk服务器看UDP对比WebRTC
  • es下载、安装、部署以及集成和mysql数据同步
  • 给纯小白的Python操作Word笔记
  • gin结合minio来做文件存储
  • The Network Link Layer: 无线传感器中Delay Tolerant Networks – DTNs 延迟容忍网络
  • css: word pacing属性
  • 哈希表与unorder_set,unorder_map的学习
  • Spring 源码学习(十一)—— webmvc 配置
  • 【JavaEE】多线程初阶3:死锁 + 线程安全 + volatile 关键字
  • 已开源:Highcharts.NET,Highcharts Android,与Highcharts iOS集成
  • VS Code配置MinGW64编译Apache Arrow C++库
  • 2025年服装工厂生产管理系统软件推荐
  • 远程桌面管理工具 - 交互式版本
  • 达梦数据库常见的重要巡检语句
  • Qt5 的基础知识
  • 【UEFI系列】ACPI
  • 51单片机-驱动独立按键模块教程
  • 类的静态成员的定义、调用及继承详解【C++每日一学】
  • AI+预测3D新模型百十个定位预测+胆码预测+去和尾2025年8月17日第163弹