我是靠谱客的博主 虚心小蘑菇,最近开发中收集的这篇文章主要介绍【论文笔记】Personalized Federated Learning with Theoretical Guarantees: A MAML Approach创新性本篇论文的贡献Per-FedAvg算法步骤评估指标和实验结果,觉得挺不错的,现在分享给大家,希望可以做个参考。

概述

Personalized Federated Learning with Theoretical Guarantees: A Model-Agnostic Meta-Learning Approach(联邦个性化元学习)

  • 创新性
  • 本篇论文的贡献
  • Per-FedAvg算法步骤
  • 评估指标和实验结果
    • 评估指标
    • 实验数据集
    • 对比方法
    • 实验结果

Guarantees: A Model-Agnostic Meta-Learning
Approach(联邦个性化元学习))

创新性

传统联邦学习的目标是跨多个计算单元(用户)训练模型,用户与一个公共的中央服务器进行通信,而无需交换他们的数据样本,利用了所有用户的计算能力,并使得用户们的模型在更大的数据点集上进行训练时获得更丰富的模型。**这种机制只为所有用户开发了一个共同的输出,并没有使模型适应每个用户。**特别是,在用户的基础数据分布不相同的异构环境中,通过最小化平均损失获得的全局模型一旦应用于每个用户的本地数据集,可能会表现得很差。
本文研究了联邦学习的一种个性化变体,受MAML的启发,将其联系到FedAvg,提出了Per-FedAvg。其目标是找到一个在所有用户之间共享的初始点,,当前或新用户可以通过执行一个或几个梯度下降步骤来轻松适应他们的本地数据集。从而保留了联邦学习体系结构的所有好处,并通过结构为每个用户提供了更个性化的模型。

本篇论文的贡献

研究了 FedAvg 算法的个性化变体,称为 Per-FedAvg,旨在解决提出的个性化 FL 问题。
①详细阐述了Per-FedAvg与原始 FedAvg 算法的联系,并讨论了实施 Per-FedAvg 时需要考虑的一些考虑因素。
②论述了提出的 Per-FedAvg 算法在非凸损失函数下的收敛特性。
③通过分布距离来衡量不同用户的数据异质性和数据分布的接近性,研究了其对 Per-FedAvg 的影响。

Per-FedAvg算法步骤

①FedAvg服务器优化目标:
在这里插入图片描述
其中, f i f_{i} fi表示用户的本地损失函数:
在这里插入图片描述

②Per-FedAvg:假设每个用户获取初始点并使用梯度下降的一步对其自己的损失函数进行更新,服务器优化目标转变为:
在这里插入图片描述
其中,中定义与用户 i 关联的元函数 F i ( w ) F_{i}(w) Fi(w)表示为:
在这里插入图片描述
第一步:在每一轮中,服务器选择一小部分大小为 rn (r ∈ (0, 1]) 的用户并将其当前模型参数 w k w_{k} wk发送给这些用户。
第二步:根据一组训练集对元模型进行一次优化。β是本地更新的学习率, w k + 1 , t i w^i_{k+1,t} wk+1,ti中i是指用户i,k+1是指用第k轮的元模型参数进行训练,t是本地迭代次数。一次优化后的结果为:
在这里插入图片描述
上式中需要对①中原函数 F i ( w ) F_{i}(w) Fi(w)进行求导:
在这里插入图片描述
由于在每一轮中在用户的所有训练数据上计算梯度 ∇ f i ( w ) ∇f_{i}(w) fi(w)通常计算成本很高。因此,针对分布 p i p_{i} pi获取一批数据 D i D_{i} Di 以获得由下式给出的无偏估计:
在这里插入图片描述
对于每次估计均使用独立批次的训练数据,得到原函数 F i ( w ) F_{i}(w) Fi(w)的导数如下所示:
在这里插入图片描述

第三步:根据一组”测试集“对元模型进行查询,计算本低loss,并计算loss对 w k + 1 , t i w^i_{k+1,t} wk+1,ti的梯度,以此梯度对服务器模型参数进行更新:

w k + 1 , t i = w k + 1 , t − 1 i − α ∇ ~ f i ( w k + 1 , t − 1 i , D t i ) {w}_{k+1, t}^{i}=w_{k+1, t-1}^{i}-alpha tilde{nabla} f_{i}left(w_{k+1, t-1}^{i}, mathcal{D}_{t}^{i}right) wk+1,ti=wk+1,t1iα~fi(wk+1,t1i,Dti)

其中 α alpha α为服务器模型的学习率。
算法如下:
在这里插入图片描述

评估指标和实验结果

评估指标

测试准确率

实验数据集

MNIST和CIFAR-10

对比方法

①FedAvg
②Per-FedAvg (FO)
③Per-FedAvg (HF)
其中②和③均为Per-FedAvg的近似计算方法

实验结果

在这里插入图片描述

最后

以上就是虚心小蘑菇为你收集整理的【论文笔记】Personalized Federated Learning with Theoretical Guarantees: A MAML Approach创新性本篇论文的贡献Per-FedAvg算法步骤评估指标和实验结果的全部内容,希望文章能够帮你解决【论文笔记】Personalized Federated Learning with Theoretical Guarantees: A MAML Approach创新性本篇论文的贡献Per-FedAvg算法步骤评估指标和实验结果所遇到的程序开发问题。

如果觉得靠谱客网站的内容还不错,欢迎将靠谱客网站推荐给程序员好友。

本图文内容来源于网友提供,作为学习参考使用,或来自网络收集整理,版权属于原作者所有。
点赞(80)

评论列表共有 0 条评论

立即
投稿
返回
顶部