之前写了一篇最小二乘法进行曲线拟合,当时就觉得这个过程其实和神经网络的线性回归很像。是否可以用同样的方法来求解线性回归的问题,而不用梯度下降呢?后来在cs229的第二课中刚好看到了这个内容,感觉推导方式更加的精妙,这里记录一下推导过程方便以后回顾。
假设我们需要预测房价,有n个feature会影响房价,比如房子大小,修建年份,装修情况,房屋个数,所处位置等等。我们搜集了m组这些feature和房价之间的对应关系,得到m组样本,其中
表示输入的feature有n+1个维度,其中
是为了与偏置
计算方便。
对于这种由n维预测1维的模型就是一个简单的1层神经网络,我们的假设函数如下:
,其中
为了让预测曲线很好的拟合数据,使用最小二乘法的loss
当我们写出loss后,正常情况下我们就知道可以使用梯度下降进行最小值逼近,事实上这种loss结构是一个标准的碗型,