
Federated Learning
Federated Learning
Anne033
本博客有较多转载内容,目的是为自己学习备查,已尽量注明转载地址,若有侵权,请告知,必删。
展开
-
优化器算法Optimizer详解(BGD、SGD、MBGD、Momentum、NAG、Adagrad、Adadelta、RMSprop、Adam)
本文将梳理:每个算法的梯度更新规则和缺点为了应对这个不足而提出的下一个算法超参数的一般设定值几种算法的效果比较选择哪种算法0.梯度下降法深入理解以下为个人总结,如有错误之处,各位前辈请指出。对于优化算法,优化的目标是网络模型中的参数θ(是一个集合,θ1、θ2、θ3 …)目标函数为损失函数L = 1/N ∑ Li (每个样本损失函数的叠加求均值)。这个损失函数L变量就是θ,其中L中的参数是整个训练集。换句话说,目标函数(损失函数)是通过整个训练集来确定的,训练集全集不同,则损失函数的图像转载 2020-10-30 07:36:53 · 567 阅读 · 0 评论 -
联邦学习 Federated Learning
应该很多人听过但是始终都没懂啥是联邦学习?百度一下发现大篇文章都说可以用来解决数据孤岛,那它又是如何来解决数据孤岛问题的?1、联邦学习的背景介绍近年来人工智能可谓风风火火,掀起一波又一波浪潮,从人脸识别、活体检验发现刑事案件报警到阿尔法狗大战人类围棋手李世石、再到无人驾驶、以及已被普遍应用的精准营销,AI逐步进入人们生活的方方面面。当然也不免出现部分过度吹捧,导致对AI的误解–AI无所不能,既然这么好用,为啥我不能拿来用一下?在追逐AI的同时却忽略了一点,AI是靠数据来喂的,而且是大量优质数据。现实生转载 2020-10-29 15:56:33 · 2919 阅读 · 1 评论