一.误差
讲的很不错,我最初学机器学习就是看吴恩达的课程,当初他就讲了平方项误差是由高斯分布通过极大似然求得的,当时还不是特别理解,之后很多的教材也没有对这方面进行解释,没想到这里给推导了一遍,很不错。
这张幻灯片有一个问题,XθX\thetaXθ都是列变量是不能相乘的,这里应该有一个转置。
注意:能用这个方式直接求出结果的条件很苛刻那就是XTXX^TXXTX必须是非奇异矩阵,大部分实际条件下,这个条件并不满足,所以我们并不这样用。
这里的评估方法没有直接使用残差平方和,而使用了一个比值。
二.梯度下降
梯度下降算法这部分没有讲好,并没有讲梯度下降算法是怎么推导出来的,在机器学习基石视屏里面这个有详细的推导。
三.逻辑回归
上面这几张图虽然精简但是将逻辑回归讲的非常全面了
以上图片来自:唐宇迪大数据分析与机器学习
侵删