Communication-Efficient Learning of Deep Networks from Decentralized Data

该博客探讨了一种在分布式环境中,从不同数据源高效学习深度网络的方法。通过减少通信开销,这种技术允许在多个节点上并行训练模型,同时保持模型的准确性。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

类型 说明
论文信息 Communication-Efficient Learning of Deep Networks from Decentralized Data
H.Brendan McMahan, Eider Moore, Daniel Ramage, Seth Hampson, Blaise Agüera y Arcas
研究的问题 移动设备的去中心化数据的高效率通信的分布式联合平均算法
算法名称 FederatedAveraging Algorithm(FedAVG)
前景知识
有限和形式 min⁡_ω∈Rdf(ω)  where  f(ω)=def1n∑i=1nf_i(ω).\min\_{\omega\in\mathbb{R}^{d}} f\left(\omega\right)  where  f\left(\omega\right) \stackrel{\text{def}}{=}\frac{1}{n}\sum^{n}_{i=1}f\_{i}\left(\omega\right).min_ωRdf(ω)  where  f(ω)=defn1i=1nf_i(ω).For a machine learning problem:fi(ω)=ℓ(xi,yi;ω)f_{i}\left(\omega\right)=\ell\left(x_{i},y_{i};\omega\right)fi(ω)=(xi,yi;ω)
分布式形式 f(ω)=∑k=1KnknFk(ω)  where  Fk(ω)=1nk∑i∈Pkfi(ω).f\left(\omega\right)=\sum^{K}_{k=1}\frac{n_{k}}{n}F_{k}\left(\omega\right)  where  F_{k}\left(\omega\right)=\frac{1}{n_{k}}\sum_{i\in\mathcal{P}_{k}}f_{i}\left(\omega\right).f(ω)=k=1K
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值