机器学习系列3:梯度下降

梯度下降(Gradient descent)是一个用来求代价函数最小值的算法。梯度下降算法的思想就是首先先从一组参数值(θ0, θ1)开始,不断地去尝试各种(θ0, θ1),直到使得代价函数 J(θ0, θ1) 最小为止。以下图代价函数为例,从不同起始点开始,到达的局部最优位置不同,也就是局部最优解不同。

未命名图片.png

那么如何求得局部最优解呢?可以把这个代价函数看成一座座小山,你从一个点出发,每次迈出一小步,这一小步要保证你下降尽可能多的高度,直到不能再下降你的高度为止。

 

将梯度下降以伪代码形式呈现:

未命名图片.png

该函数每次循环都要将 θ0, θ1 更新,并且保证同步更新:

未命名图片.png

解释一下这个伪代码,首先是一个循环结构,当不能再更新 θ0, θ1 时循环停止,:= 是一个赋值号,α 是学习速率,也就是你下山每次迈出多大步子,后面紧跟着的是一个偏导数。这个偏导数我们用一种最简单的情况来解释,就令 θ0=0,现在就剩下 θ1 了。

未命名图片.png

还记得之前的代价函数图像吗?

未命名图片.png

其中 α 后面的导数就代表着这一点的斜率,每次  θ1 更新都是减去一个 α与该点的斜率之积,当下降到局部最小处时,导数恰好为零,此时  θ1 不再更新,就得到了我们想要的结果(美滋滋),如下图:

未命名图片.png

但是值得注意的一点是, 学习速率 α 要选择恰当,如果太大的话会出现下图中的情况,直接跳过局部最优解,一直循环,而且离局部最优解会越来越远。


未命名图片.png

如果太小的话,寻找局部最优解的速率会特别特别慢。

未命名图片.png

 

ps. 本篇文章是根据吴恩达机器学习课程整理的学习笔记。如果想要一起学习机器学习,可以关注微信公众号「SuperFeng」,期待与你的相遇。

### 梯度下降算法原理 梯度下降是一种一阶优化方法,用于解决无约束优化问题[^2]。该算法通过迭代更新参数来最小化目标函数,在每次迭代过程中按照负梯度方向调整权重向量 \( W \),从而逐步接近最优解。 具体而言,对于给定的目标函数 \( E(W) \),其更新规则如下所示: \[ W_{new} = W_{old} - \eta \nabla E(w) \] 其中,\( \eta \) 表示学习率,决定了步长大小;而 \( \nabla E(w) \) 则代表损失函数相对于当前模型参数的偏导数即梯度[^3]。 当刚开始接触这一领域时,可能会觉得背后的数学概念较为复杂[^1]。然而随着实践深入以及理论基础积累,会逐渐掌握并灵活运用此技术。 ### Python 实现教程 下面给出一段简单的Python代码片段展示如何手动实现批量梯度下降过程: ```python import numpy as np def compute_gradient(X, y, theta): m = len(y) predictions = X.dot(theta) errors = np.subtract(predictions, y) grad = (1/m) * X.transpose().dot(errors) return grad def gradient_descent(X, y, params, learning_rate, iterations): cost_history = np.zeros(iterations) for i in range(iterations): gradients = compute_gradient(X, y, params) params = params - (learning_rate * gradients) return params ``` 这段程序定义了一个计算梯度的辅助函数 `compute_gradient` 和执行实际梯度下降操作的核心逻辑 `gradient_descent` 函数。注意这里假设输入数据已经过适当预处理,并且特征矩阵X包含了偏置项列(全为1)。此外还省略了代价历史记录部分以便简化说明。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值