《Andrew Ng 机器学习笔记》这一系列文章文章是我再观看Andrew Ng的Stanford公开课之后自己整理的一些笔记,除了整理出课件中的主要知识点,另外还有一些自己对课件内容的理解。同时也参考了很多优秀博文,希望大家共同讨论,共同进步。
网易公开课地址:http://open.163.com/special/opencourse/machinelearning.html
在这篇博文中,我们来分析为何之前要选择平方函数作为目标函数会取得更好的效果。
本篇内容需要了解到的线性代数知识点:
(1)高斯分布
(2)正态分布
(3)中心极限定理
(4)IID(独立同分布)
(5)似然函数
(6)极大似然估计
对最小二乘法的概率解释
首先我们先做几个假设,这些假设并不能说是绝对正确,但在这里足够使用。

这篇博客基于Andrew Ng的机器学习课程,探讨了为何选择平方误差作为目标函数的原因,涉及高斯分布、正态分布、中心极限定理等线性代数概念,以及IID和极大似然估计。博主通过概率解释最小二乘法,并提出在特定条件下,目标值y对参数θ和输入x服从正态分布。
最低0.47元/天 解锁文章
1453

被折叠的 条评论
为什么被折叠?



