从9月初到现在9月22号,一直在努力学习谷歌的TFF联邦学习框架。小小总结一下这个框架的优缺点:
优点
- 模型构造的简洁性非常好,用简单的代码实现复杂的功能。
- 兼容TensorFlow代码好。服务器参数更新和客户端参数更新都可以用TensorFlow代码编写。
- 教程完善,官网的教程介绍的比较详细。
缺点
- 和优点第一条对应,代码过于简单,尤其是模型参数内部通信机制几乎不可见,导致我们学习的时候无法了解通信机制(这也许是我吹毛求疵了)
- 和优点第二条对应,模型只能通过TensorFlow来构建,无法兼容其他深度学习框架。并且TFF对于数据类型的要求非常严格!
这里也要不得不吐槽一下,由于TFF在构建联邦学习算子的时候非常强调数据类型,需要明确输入模型的权重类型和数据集的权重类型,所以我们必须要获取模型的权重类型。而要获取模型的权重类型,就必须按照TFF规定的方法来构建TensorFlow模型,
官方提供了两种构建TensorFlow模型方法: (方法1)直接设置模型的参数weight +
bias,然后通过参数手动构建网络。这种方式对于复杂的网络构建来说就是噩梦,相当于把网络全部手写一遍。(方法2)先构建tf.keras.model,然后从这个模型构建。但是这个网络也不能是直接通过网络的class()实例化直接得到。而是必须通过
tf.keras.Sequential()的方式来进行模型构建。然后通过tff.learning.from_keras_model()函数来构建联邦学习模型。
当然,经过测试,我们也可以通过class构建模型,然后在add到tf.keras.Sequential()里面,但是对class的call函数也有明确的要求:要求输入参数除了self外只能有一个input(这里的变量名

本文总结了谷歌的TFF联邦学习框架的优缺点。优点包括模型构造简洁、兼容TensorFlow以及教程完善。缺点则涉及代码透明度不足、仅支持TensorFlow、版本兼容性问题以及目前仅限本地实验。此外,文中还介绍了TFF模型构建的两种方法及其限制,特别指出其对数据类型的严格要求,不适合多模态输入的模型。
最低0.47元/天 解锁文章
1407

被折叠的 条评论
为什么被折叠?



