吴恩达机器学习——单变量线性回归(代价函数与梯度下降)
目录
1、声明
本文章所应用材料来源于吴恩达老师的机器学习课资料、黄海广老师的公众号下载的整理资料、本文所有内容为个人学习笔记的整理,并非原创。(因为也不是转载,所以发表标签设置为原创,在此声明)
2、模型描述
假设有一组训练数据:房子的大小与房子的价格,通过已有数据进行线性拟合,以预测任意房子大小的价格。其中有监督学习的思想。
训练数据如下:
所以我们可以给出一个h的表达式
3、 代价函数
3.1、函数解释
我们预测的目的就是为了是预测结果h与实际结果y之间的差最小,所以我们可以使其误差的平方和能够最小。
代价函数也被称作平方误差函数,有时也被称为平方误差代价函数。我们之所以要求出误差的平方和,是因为误差平方代价函数,对于大多数问题,特别是回归问题,都是一个合理的选择。还有其他代价函数也能很好地发挥作用,但是平方误差代价函数可能是解决回归问题最常用的手段了。
3.2、具体表达
我们可以给出代