tf学习(六)—— 优化器的使用

本文探讨了在深度学习中,梯度下降法与Adam优化器在模型训练时的收敛速度差异。实验结果显示,使用Adam优化器的模型在迭代次数较少的情况下,测试准确率提升更快,显示出比梯度下降法更优的收敛性能。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

使用不同优化器可以得到不同的效果,差别在于收敛速度不同



#梯度下降函数,优化器就会按照循环的次数一次次沿着loss最小值的方向优化参数了。
train_step = tf.train.GradientDescentOptimizer(0.2).minimize(loss)


#优化器
# train_step = tf.train.AdamOptimizer(0.001)


#收敛速度比较快
# train_step = tf.train.AdamOptimizer(1e-3).minimize(loss)  #10的-3次方,学习率,

使用两种优化器,收敛结果分别如下

Iter 0,Testing Accuracy0.6166
Iter 1,Testing Accuracy0.7754
Iter 2,Testing Accuracy0.7965
Iter 3,Testing Accuracy0.8053
Iter 4,Testing Accuracy0.8119
Iter 5,Testing Accuracy0.816
Iter 6,Testing Accuracy0.8193
Iter 7,Testing Accuracy0.8216
Iter 8,Testing Accuracy0.8235
Iter 9,Testing Accuracy0.825


Iter 0,Testing Accuracy0.7521
Iter 1,Testing Accuracy0.8384
Iter 2,Testing Accuracy0.8709
Iter 3,Testing Accuracy0.8852
Iter 4,Testing Accuracy0.8927
Iter 5,Testing Accuracy0.8982
Iter 6,Testing Accuracy0.9015
Iter 7,Testing Accuracy0.9035
Iter 8,Testing Accuracy0.

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值