1. 线性回归模型:(M个样本,n个特征值,一个bias)

矩阵化表现形式:

注意这里采用的XW的向量表示形式,如果要采用W(T)X的形式X矩阵的向量表现形式就不一样了。
其实机器学习的目的就是要求出最优的W参数值,因此我们需要用到损失函数。
2.损失函数(cost):
最小二乘法表示损失函数:
何为最小二乘法,其实很简单。我们有很多的给定点,这时候我们需要找出一条线去拟合它,那么我先假设这个线的方程,然后把数据点代入假设的方程得到观测值,求使得实际值与观测值相减的平方和最小的参数。
M是样本数量,就是我们训练样本的数量。如果每一个样本单独求损失函数的话,最后要求和才是整个模型的损失函数
如果是用向量矩阵求损失函数的话,所有样本全部代入,直接求出来的是一个值,就是模型的损失函数。
注意:上面的两个大小写y实际上是同一个y,都是样本真实值的向量,是M×1维的向量矩阵
分析一下:向量矩阵的维度:
X 是M×(n+1)维
W是(n+1)×1维
XW是 M×1维
y是M×1维
我们的目的就是要使损失函数最小,然后求出损失函数最小的W,这时候我们求最小损失函数有两种情况:
3.学习过程:求出损失函数最小的W
a.矩阵满秩时求解:(Normal Equation)</

本文深入探讨了线性回归模型,包括矩阵化的表示形式和损失函数。介绍了最小二乘法和两种求解最小损失函数的策略:矩阵满秩时的正规方程和矩阵不满秩时的梯度下降法。还强调了特征缩放的重要性,并讨论了模型评估方法,通过绘制学习曲线检查算法效果。最后,展示了使用Python实现线性回归解决店铺利润预测问题。
最低0.47元/天 解锁文章
5万+

被折叠的 条评论
为什么被折叠?



