[TFF联邦学习]送给想要了解TFF的盆友

本文总结了谷歌的TFF联邦学习框架的优缺点。优点包括模型构造简洁、兼容TensorFlow以及教程完善。缺点则涉及代码透明度不足、仅支持TensorFlow、版本兼容性问题以及目前仅限本地实验。此外,文中还介绍了TFF模型构建的两种方法及其限制,特别指出其对数据类型的严格要求,不适合多模态输入的模型。

从9月初到现在9月22号,一直在努力学习谷歌的TFF联邦学习框架。小小总结一下这个框架的优缺点:

优点

  1. 模型构造的简洁性非常好,用简单的代码实现复杂的功能。
  2. 兼容TensorFlow代码好。服务器参数更新和客户端参数更新都可以用TensorFlow代码编写。
  3. 教程完善,官网的教程介绍的比较详细。

缺点

  1. 和优点第一条对应,代码过于简单,尤其是模型参数内部通信机制几乎不可见,导致我们学习的时候无法了解通信机制(这也许是我吹毛求疵了)
  2. 和优点第二条对应,模型只能通过TensorFlow来构建,无法兼容其他深度学习框架。并且TFF对于数据类型的要求非常严格!

这里也要不得不吐槽一下,由于TFF在构建联邦学习算子的时候非常强调数据类型,需要明确输入模型的权重类型和数据集的权重类型,所以我们必须要获取模型的权重类型。而要获取模型的权重类型,就必须按照TFF规定的方法来构建TensorFlow模型,

官方提供了两种构建TensorFlow模型方法: (方法1)直接设置模型的参数weight +
bias,然后通过参数手动构建网络。这种方式对于复杂的网络构建来说就是噩梦,相当于把网络全部手写一遍。

(方法2)先构建tf.keras.model,然后从这个模型构建。但是这个网络也不能是直接通过网络的class()实例化直接得到。而是必须通过tf.keras.Sequential()的方式来进行模型构建。然后通过tff.learning.from_keras_model()函数来构建联邦学习模型。
当然,经过测试,我们也可以通过class构建模型,然后在add到tf.keras.Sequential()里面,但是对class的call函数也有明确的要求:要求输入参数除了self外只能有一个input(这里的变量名

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值