机器学习算法系列(一):线性回归 (损失函数(均方误差角度,概率分布角度) 正规方程法 梯度下降法求解线性回归)

本文详细介绍了线性回归的基础知识,包括从均方误差和概率分布两个角度推导线性回归的损失函数,并探讨了正规方程法与梯度下降法在求解线性回归中的应用。通过比较,强调了梯度下降法在处理大规模数据时的高效性,以及在实际工程中的应用价值。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

线性回归损失函数推导(均方误差角度,概率分布角度) 正规方程法 梯度下降法求解线性回归

从均方误差的角度推导线性回归的损失函数

线性回归是一种最基本的机器学习算法。基本形式为:
y ^ = θ 0 x 0 + θ 1 x 1 + θ 2 x 2 + θ 3 x 3 + … … = θ T x \hat{y} = \theta_0x_0+\theta_1x_1+\theta_2x_2+\theta_3x_3+……=\mathbf{\theta^Tx} y^=θ0x0+θ1x1+θ2x2+θ3x3+=θTx
其中: θ = [ θ 0 , θ 1 , θ 2 , . . . θ n ] T \mathbf{\theta} = [\theta_0,\theta_1,\theta_2,...\theta_n]^T θ=[θ0,θ1,θ2,...θn]T, x = [ 1 , x 1 , x 2 , x 3 . . . x n ] T \mathbf{x}=[1,x_1,x_2,x_3...x_n]^T x=[1,x1,x2,x3...xn]T, y ^ \hat{y} y^是预测值。

对于回归问题,我们采用均方误差作为模型的评估标准。从向量的角度来计算:
J = 1 2 m ∣ ∣ X θ − y ∣ ∣ 2 2 = 1 2 m ( X θ − y ) T ( X θ − y ) = 1 2 m ( θ T X T − y T ) ( X θ − y ) = 1 2 m ( θ T X T X θ − θ T X T y − y T X θ + y T y ) = 1 2 m ( θ T X T X θ − 2 y T X θ + y T y ) J = \frac{1}{2m}||\mathbf{X\theta-y}||_2^2 = \frac{1}{2m}(\mathbf{X\theta-y})^T(\mathbf{X\theta-y})=\frac{1}{2m}(\mathbf{\theta^TX^T-y^T})(\mathbf{X\theta-y})\\ =\frac{1}{2m}(\mathbf{\theta^TX^TX\theta}-\mathbf{\theta^TX^Ty}-\mathbf{y^TX\theta}+\mathbf{y^Ty})\\ =\frac{1}{2m}(\mathbf{\theta^TX^TX\theta}-2\mathbf{y^TX\theta}+\mathbf{y^Ty}) J=2m1Xθy22=2m1(Xθy)T(Xθy)=2m1(θTXTyT)(Xθy)=2m1(</

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值