迈向隐私保护的图智能:联邦学习全解析
1. 联邦学习中的通信与安全
在联邦学习(FL)架构里,各参与者借助从其他参与者处获取的模型信息来更新自身模型,再把更新后的模型信息传递给其他参与者。所以,防止信息泄露的关键在于保障参与者之间的安全通信。这一目标可通过一些安全解决方案达成,例如基于公钥的加密系统。而且,由于没有集中式协调者,需提前制定好既定协议来协调训练流程。主要有两种协议:
- 循环传输协议 :参与者排成环形链 {p1, p2, …, pn}。p1 将当前本地参数传给 p2,p2 接收信息后用本地数据集更新模型,再把更新后的参数传给 p3,直至模型收敛或满足执行约束,训练结束。
- 随机传输协议 :参与者 pk 随机选一个参与者 pi 并传递参数信息,pi 接收并更新,再随机选 pj 传递更新后的模型参数,在 n 个参与者间持续进行,直到模型收敛或满足执行约束。
2. 纵向联邦学习(Vertical FL)
纵向联邦学习适用于使用符合场景 2 分布方案的训练数据来训练深度模型(如 GNNs),即数据共享相同 ID 空间但特征空间不同,其公式可表示为:
( ) ( )
=
≠
=
≠
:
;
& ;
Vertical FL
X
X
X
X
for all D
D
i
j
i
feature
j
feature
i
ID
j
ID
超级会员免费看
订阅专栏 解锁全文

19

被折叠的 条评论
为什么被折叠?



