机器学习(7)--梯度下降法(GradientDescent)的简单实现

本文介绍了梯度下降法在机器学习中的应用,特别是在神经网络中的学习率选择。通过实验得出结论,随着神经元数量增加,学习率应降低,训练步数需增多。文章以一元线性方程为例,展示了梯度下降法的简单实现,该方法同样适用于多元情况。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

曾经在  机器学习(1)--神经网络初探  详细介绍了神经网络基本的算法,在该文中有一句
weights[i] += 0.2 * layer.T.dot(delta)  #0.2学习效率,应该是一个小于0.5的数,
同时在  tensorflow实例(2)--机器学习初试 篇文章中用tensorflow实现上述的神经网络算法,该文中也有一句
train=tf.train.GradientDescentOptimizer(0.25).minimize(loss) #梯度下降优化器,0.25学习效率,应该是一个小于0.5的数, 
这两句里都有一个学习率的参数,

tensorflow实例(6)--机器学习中学习率的实验 中得到一个结论 

当神经元越多时,我们的学习率应该越小,同时学习次数应该增加

在这三个案例中,都使用到了学习率,同时在第三例中的结论并不完全,
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值