caffe的solver中不同的学习策略(lr_policy)

本文参考:https://blog.youkuaiyun.com/cuijyer/article/details/78195178

各种教学视频或文档资料 +QQ:635992897

caffe源码的caffe-master/sec/caffe/proto/caffe.proto下记录了不同的学习策略的计算方法:

// The learning rate decay policy. The currently implemented learning rate
  // policies are as follows:
  //    - fixed: always return base_lr.
  //    - step: return base_lr * gamma ^ (floor(iter / step))
  //    - exp: return base_lr * gamma ^ iter
  //    - inv: return base_lr * (1 + gamma * iter) ^ (- power)
  //    - multistep: similar to step but it allows non uniform steps defined by
  //      stepvalue
  //    - poly: the effective learning rate follows a polynomial decay, to be
  //      zero by the max_iter. return base_lr (1 - iter/max_iter) ^ (power)
  //    - sigmoid: the effective learning rate follows a sigmod decay
  //      return base_lr ( 1/(1 + exp(-gamma * (iter - stepsize))))
  //
  // where base_lr, max_iter, gamma, step, stepvalue and power are defined
  // in the solver parameter protocol buffer, and iter is the current iteration.

fixed

参数:

base_lr: 0.01
lr_policy: "fixed"
max_iter: 400000
  •  

学习率曲线:
fixed

step

参数:

base_lr: 0.01
lr_policy: "step"
gamma: 0.1
stepsize: 30
max_iter: 100

学习率曲线:
step

exp

参数:

base_lr: 0.01
lr_policy: "exp"
gamma: 0.1
max_iter: 100

学习率曲线:
这里写图片描述
参数 gamma 的值要小于1。当等于1的时候,学习策略变为了 fixed。由exp的学习率计算方式可以看出,在 gamma = 0.1 的情况下,学习率每迭代一次变为上一次迭代的0.1倍。

inv

参数:

base_lr: 0.01
lr_policy: "inv"
gamma: 0.1
power: 0.75
max_iter: 10000

学习率曲线:
这里写图片描述
由上图可以看出,参数 gamma 控制曲线下降的速率,而参数 power 控制曲线在饱和状态下学习率达到的最低值。

multistep

参数:

base_lr: 0.01
lr_policy: "multistep"
gamma: 0.5
stepvalue: 1000
stepvalue: 3000
stepvalue: 4000
stepvalue: 4500
stepvalue: 5000
max_iter: 6000

学习率曲线:
multistep
每一次学习率下降到之前的 gamma 倍。

poly

参数:

base_lr: 0.01
lr_policy: "poly"
power: 0.5
max_iter: 10000

学习率曲线:
这里写图片描述
学习率曲线的形状主要由参数 power 的值来控制。当 power = 1 的时候,学习率曲线为一条直线。当 power < 1 的时候,学习率曲线是凸的,且下降速率由慢到快。当 power > 1 的时候,学习率曲线是凹的,且下降速率由快到慢。

sigmoid

参数:

base_lr: 0.01
lr_policy: "sigmoid"
gamma: -0.001
stepsize: 5000
max_iter: 10000

学习率曲线:
sigmoid
参数 gamma 控制曲线的变化速率。当 gamma < 0 时,才能控制学习率曲线呈下降趋势,而且 gamma 的值越小,学习率在两头变化越慢,在中间区域变化越快。

solver.prototxt中,可以通过配置参数来设置Solver的配置。其中,最大迭代次数可以通过设置max_iter参数来指定。然而,如果使用solver.step(n)来进行前向和反向传播,这个配置将无效。例如,以下代码中,总迭代次数为100 * 10 = 1000: ``` for _ in xrange(100): solver.step(10) ``` 基本的学习率可以通过在solver.prototxt中设置base_lr参数来配置。同时,可以结合lr_policy和其他参数来制定学习率的变化策略。在这个例子中,lr_policy被设置为"fixed",表示学习率保持不变。 关于单位调整,可以将所有parameters、variables、inputs和outputs的单位都设置为1。然后,在涉及到最终输出的变量时,可以乘以一个单位转换数。这样可以简化模型中复杂单位的处理。例如,将Vs输出为电压值,可以乘以一个单位转换数K_V,使其单位变为V。通过这种方式,可以更方便地处理单位转换的问题。 #### 引用[.reference_title] - *1* *2* [caffe solver configuration](https://blog.youkuaiyun.com/weixin_30297281/article/details/97059435)[target="_blank" data-report-click={"spm":"1018.2226.3001.9630","extra":{"utm_source":"vip_chatgpt_common_search_pc_result","utm_medium":"distribute.pc_search_result.none-task-cask-2~all~insert_cask~default-1-null.142^v91^insert_down28v1,239^v3^insert_chatgpt"}} ] [.reference_item] - *3* [物理建模仿真利器—Simscape language physics model debug log](https://blog.youkuaiyun.com/m0_37921318/article/details/110846295)[target="_blank" data-report-click={"spm":"1018.2226.3001.9630","extra":{"utm_source":"vip_chatgpt_common_search_pc_result","utm_medium":"distribute.pc_search_result.none-task-cask-2~all~insert_cask~default-1-null.142^v91^insert_down28v1,239^v3^insert_chatgpt"}} ] [.reference_item] [ .reference_list ]
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值