Caffe base_lr递减

本文探讨了如何通过调整学习率(base_lr)来优化模型训练过程。分别使用0.1, 0.05, 0.01三种不同的学习率进行实验,发现base_lr为0.01时,loss能够有效下降且模型准确率逐步提高。

首先调整 test_iter, TRAIN_ batch_size, TEST_ batch_size  的值,使得GPU Load的值在97%,98%左右。


从0.1递减:base_lr: 0.1 ,   base_lr: 0.05,  base_lr: 0.01

使得GPU Load的值在97%,98%左右


base_lr越大,loss下降的越快;

base_lr: 0.1:     太大,           loss会恒等于87不变,   准确率保持和猜的一样, 例如此处是10分类,那准确率就保持0.1左右不变

base_lr: 0.05:  不是太大,    loss会恒等于87不变,   准确率保持和猜的一样

base_lr: 0.01:  合适,             loss会递减,                   准确率递增



(1) base_lr: 0.1




(2) base_lr: 0.05




(3) base_lr: 0.01




评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值