29、自然语言理解与生成问题中的深度学习:梯度下降与激活函数

自然语言理解与生成问题中的深度学习:梯度下降与激活函数

1. 梯度下降计算

1.1 代码部分与梯度下降引入

首先我们来看代码部分,之后会进入核心的梯度下降计算环节。计算平方误差和的代码片段如下:
Code snippet for calculating sum of squared error

接下来我们进入梯度下降的计算。使用误差函数,我们能判断是否需要更新直线以得到最佳拟合直线,但如何更新直线正是本部分要探讨的内容。我们要思考如何最小化误差并得到最佳拟合直线。为了回答这个问题,我们先对梯度下降有个基本了解,在代码方面,我们只剩下最后一个函数 gradient_descent_runner() 了。参考下面这个用于理解梯度下降的 3D 图:
A 3D graph for understanding gradient descent

1.2 梯度下降的原理

这个 3D 图展示了斜率 m 、y 截距 b 和误差的所有可能值。x 轴是斜率值,y 轴是 y 截距,z 轴是误差值。我们的目标是找到误差最小的点。仔细观察图形会发现,曲线底部的误差值最小,这个误差最小的点在机器学习中被称为局部最小值。在复杂数据集中可能存在多个局部最小值,而这里我们的数据集简单,只有一个局部最

评论
成就一亿技术人!
拼手气红包6.0元
还能输入1000个字符  | 博主筛选后可见
 
红包 添加红包
表情包 插入表情
 条评论被折叠 查看
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值