机器学习系列—ch2
主要内容:
单变量线性回归
一、模型表示

其中单变量的线性回归即一次函数
二、代价函数 Cost Function的数学定义

三、代价函数 Cost Function的直观理解

通过上图,我们可以更好的理解代价函数J所表达的值是什么样的,以及对应假设是什么样子&什么样的假设对应什么样的点,更接近于代价函数的最小值
四、梯度下降算法 Gradient Descent




四、梯度下降算法 Gradient Descent的直观理解


五、梯度下降的线性回归

#以下凑字数使用(来自陶勇的《目光》)
“很多时候我们选择站在道德制高点,在衣食无忧、生活安定、有稳定生存保障的情况下,去批判他人是好是坏,我们以善恶武断定义他人;而事实上我也经常问自己,如果有一天我也穷困潦倒到没有任何生活来源的时候,我会廉者不受嗟来之食吗?”
之前我总喜欢那种对立面特别明显的事情,对就是对,错就是错。但是生活是极其复杂的,不能单纯对错论,很多事情真的很棘手。不经他人苦,莫劝他人善。
本文深入探讨了单变量线性回归的基本概念和技术,包括模型表示、代价函数的数学定义及直观理解,并详细介绍了梯度下降算法的工作原理及其在线性回归中的应用。
6719

被折叠的 条评论
为什么被折叠?



