多元线性回归及其优化算法

本文介绍了线性回归的基础及其优化算法,包括解析解、梯度下降、随机梯度下降。解析解通过最小二乘法找到损失函数的最小值;梯度下降模拟下山过程寻找最优解,探讨了学习率的影响;随机梯度下降和Mini-batch SGD则通过减少计算量提高效率。文章还提供了Python代码示例。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

    线性回归是很多机器学习机器学习算法的基础,所谓基础决定上层建筑,学好线性回归及其各种优化技巧,能为以后学习聚类乃至神经网络奠定坚实基础。我将从线性回归解析解,梯度下降,随机梯度下降,归一化,正则化等角度较为系统的为大家阐述线性回归及其各种优化策略,并给出部分Python代码,在阅读过程中大以下两种思想会贯穿读者始终:

1.很多策略都是TeadeOff的,在工作中根据自身追求的目标去合理调节。

2.有时不一定要追求全局最优解,只要找到一组解,worked就可以了。


一.解析解

假设你已经熟悉最小二乘法(可以去读我的上一篇深入浅出最小二乘法),目标函数为:

另一种表达:

我们要找最优解,即为上面损失函数值最小的解,多元线性函数中偏导数为0的点为驻点,但驻点不一定唯一,下面我用Hessian矩阵的正定性来证明上式的驻点是全局最优解。

对J损失函数求二阶导得:

自身和自身相乘一定是非负的,所以He

评论 2
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值