前言
损失函数定义了训练结果与真实结果的差距;
早期机器学习模型依赖于人工设计和经验;
有无监督学习取决于任务的需求,对于解决方案的规划影响不大。
机器学习的几大流派
(频率)统计学派和贝叶斯学派:
- 贝叶斯学派认为,概率是一个人对于一件事的信念强度,概率是主观的。贝叶斯认为概率不应该这么简单地计算,而需要加入先验概率的考虑。
- 但频率主义学派所持的是不同的观念:他们认为参数是客观存在的, 即使是未知的,但都是固定值,不会改变。
神经网络学派:仿生学
强化学习:
与环境的交互和反馈中进行学习。训练的模型与Reward模型相互依存、协作。
在线学习:
在线实时推荐系统为模型训练提供最新的数据,从而推动模型的不断优化。但是可能出现坏的数据,使得模型负面提升。
联邦学习:
不同企业不希望在训练同一个模型时共享数据。
为了解决联合训练模型时的隐私问题,提出的一种方法:让各个企业自己进行模型的训练,各个企业在完成模型的训练之后,将各自模型的参数上传至一个中心服务器(也可以是点对点),中心服务器结合各个企业的参数(可以上传梯度,也可以是自己更新后的参数),重新拟定新的参数ÿ