Caffe傻瓜系列(11):caffe中的lr_policy选择

本文详细介绍了Caffe中各种学习率衰减策略的工作原理及其数学表达方式,并通过Matlab代码实现了不同策略的学习率变化曲线。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

在自己配置训练网络时的solver文件中这个参数选择有好多种策略。

接下来看看caffe.proto文件的这个参数:

// The learning rate decay policy. The currently implemented learning rate
// policies are as follows:
//    - fixed: always return base_lr.
//    - step: return base_lr * gamma ^ (floor(iter / step))
//    - exp: return base_lr * gamma ^ iter
//    - inv: return base_lr * (1 + gamma * iter) ^ (- power)
//    - multistep: similar to step but it allows non uniform steps defined by
//      stepvalue
//    - poly: the effective learning rate follows a polynomial decay, to be
//      zero by the max_iter. return base_lr (1 - iter/max_iter) ^ (power)
//    - sigmoid: the effective learning rate follows a sigmod decay
//      return base_lr ( 1/(1 + exp(-gamma * (iter - stepsize))))
//
// where base_lr, max_iter, gamma, step, stepvalue and power are defined
// in the solver parameter protocol buffer, and iter is the current iteration.
如果安装digists的话,可以按照here 进行选。

没装,按matlab实现:

iter=1:50000;
max_iter=50000;
base_lr=0.01;
gamma=0.0001;
power=0.75;
step_size=5000;
% - fixed: always return base_lr.
lr=base_lr*ones(1,50000);
subplot(2,3,1)
plot(lr)
title('fixed')
% - step: return base_lr * gamma ^ (floor(iter / step))
lr=base_lr .* gamma.^(floor(iter./10000));
subplot(2,3,2)
plot(lr)
title('step')
% - exp: return base_lr * gamma ^ iter
lr=base_lr * gamma .^ iter;
subplot(2,3,3)
plot(lr)
title('exp')
% - inv: return base_lr * (1 + gamma * iter) ^ (- power)
lr=base_lr.*(1./(1+gamma.*iter).^power);
subplot(2,3,4)
plot(lr)
title('inv')
% - multistep: similar to step but it allows non uniform steps defined by
% stepvalue
% - poly: the effective learning rate follows a polynomial decay, to be
% zero by the max_iter. return base_lr (1 - iter/max_iter) ^ (power)
lr=base_lr *(1 - iter./max_iter) .^ (power);
subplot(2,3,5)
plot(lr)
title('poly')
% - sigmoid: the effective learning rate follows a sigmod decay
% return base_lr ( 1/(1 + exp(-gamma * (iter - stepsize))))
lr=base_lr *( 1./(1 + exp(-gamma * (iter - step_size))));
subplot(2,3,6)
plot(lr)
title('sigmoid')
结果:

Caffe是一个用于深度学习的开源框架,其配置文件包含了网络模型、数据输入输出等相关信息,下面是关于Caffe配置文件的详解: Caffe配置文件主要包括两类:网络模型配置文件和Solver配置文件。 1. 网络模型配置文件 网络模型配置文件通常包括以下几个部分: (1)name:指定模型的名称。 (2)input:指定输入数据的属性,包括数据维度、数据类型等。 (3)layer:描述网络层的信息,包括层的名称、类型、输入输出数据的维度等。 (4)loss:指定损失函数的类型。 (5)accuracy:指定模型评估指标的类型。 下面是一个典型的网络模型配置文件的例子: ``` name: "MyNet" input: "data" input_dim: 1 input_dim: 3 input_dim: 224 input_dim: 224 input_dim: 3 layer { name: "conv1" type: "Convolution" bottom: "data" top: "conv1" convolution_param { num_output: 96 kernel_size: 11 stride: 4 weight_filler { type: "xavier" } bias_filler { type: "constant" value: 0 } } } loss { name: "loss" type: "SoftmaxWithLoss" bottom: "fc8" bottom: "label" } accuracy { name: "accuracy" type: "Accuracy" bottom: "fc8" bottom: "label" top: "accuracy" } ``` 2. Solver配置文件 Solver配置文件用于定义训练网络的参数和超参数,包括以下几个部分: (1)net:指定训练使用的网络模型配置文件。 (2)test_iter:指定测试时使用的迭代次数。 (3)test_interval:指定每隔多少次迭代进行一次测试。 (4)base_lr:指定初始学习率。 (5)lr_policy:指定学习率的调整策略。 (6)momentum:指定动量参数。 (7)weight_decay:指定权重衰减参数。 下面是一个典型的Solver配置文件的例子: ``` net: "MyNet.prototxt" test_iter: 100 test_interval: 500 base_lr: 0.01 lr_policy: "step" gamma: 0.1 stepsize: 100000 momentum: 0.9 weight_decay: 0.0005 ``` 以上是关于Caffe配置文件的详解,希望能对你有所帮助。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值