网上讲机器学习的资料很多,pluskid的博客是第一个让我眼前一亮的,本次记录:
-
学习理论Learning Theory
- PAC(Probably Approximately Correct,Leslie Valiant提出)可能近似正确。催生了Boosting算法
- SLT(Statistical Learning Theary,Vapnik提出),催生了SVM
-
Andrew Ng
robot/agent 相关的东西和机器学习的一大交集就是一个叫做增强学习 (Reinforcement Learning, RL) 的模型,不过传统的 RL 算法通常都有相当 aggressive 的“探索”环境的过程。极端的情况下某个高难度的“探索性”步骤有可能会使直升机 crash 掉。为了解决这个问题,Andrew Ng 提出了所谓的学徒学习 (Apprenticeship learning),通过人类示范的方法来引导机器进行学习。
-
统计分析与机器学习
- 统计分析里可能通常都会假设数据确实是满足某个具体的带参数的分布,从而去研究如何更精确更健壮地估计对应的参数的问题(例如试验设计);
- 机器学习则通常不会假设数据的真实分布是符合某个参数的概率模型的,或者甚至完全不做任何限制,而在这样的背景下,普通的最大似然是否真的可行呢?要达到给定的精读需要多少数据点、多少计算量?这些才是机器学习所关心的问题。
-
监督学习
- 假定 X   Y X \, Y XY上存在一个联合分布1 (再严苛一点,只在 X X X上存在分布 P P P,对应的 Y = h ( X ) + ε Y=h(X) + \varepsilon Y=h(X)+ε)
- 监督学习的训练集和测试集要求独立同分布 (IID),这样训练集训练出来的模型才有可能用来预测测试集。
-
目标是通过训练集求得一个 f f f,使得 f ( x ) f(x) f(x)可以在测试集上很好的预测 y y y。
-
为了衡量学习质量(假设 Y = W X Y=WX Y=WX,权值矩阵

最低0.47元/天 解锁文章
2万+

被折叠的 条评论
为什么被折叠?



