DATA
crop:截取原图像中一个固定patch
layers {
name: "data"
type: DATA
top: "data"
top: "label"
data_param {
source: "../data/ImageNet/imagenet-train" #数据存放位置
batch_size: 128 #一次批处理的大小,视内存大小而定。四维数组N*C*H*W中的N
backend: LMDB #数据库类型,默认为leveldb
}
include: { phase: TRAIN } #如果加了这一行的话表示是在训练过程中使用该层,可将TRAIN替换为TEST
}
CONVOLUTION
layer {
name: "conv"
type: "Convolution"
bottom: "data"
top: "conv"
param {
lr_mult: 1 #权重的学习率 该层lr=lr_mult*base_lr
decay_mult: 1 #权重的衰减值
}
param {
lr_mult: 2 #偏置项的学习率
decay_mult: 0 #偏置项的衰减值
}
convolution_param {
num_output: 96 #该层输出的filter的个数。四维数组N*C*H*W中的W
kernel_size: 11 #卷积核大小11*11。可设定长kernel_h与宽kernel_w
stride: 4 #步长,也就是卷积核滑动的距离
weight_filler { #卷积核初始化方式
type: "gaussian" #高斯分布
std: 0.01 #标准差为0.01
}
bias_filler { #偏置项初始化方式
type: "constant" #连续分布
value: 0
}
}
}
这里说一下关于weight_filler和bias_filler的几种设定方式:
| TYPE | PARAM | EXPLAIN |
|---|---|---|
| Constant | Value | 以常量初始化,初始化值为[Value] |
| Gaussian | std,mean | 以高斯分布方式初始化,均值为[mean],标准差为[std] |
| uniform | min,max | 均匀分布,[min,max] |
| xavier | scale | 均匀分布,[-scale,scale],scale=sqrt(3/K*H*W) |

本文详细介绍了Caffe框架中常见的层参数,包括DATA层的crop选项,CONVOLUTION层的weight_filler和bias_filler设置,ReLU层的negative_slope,LRN层,POOLING层,INNERPRODUCT层,ACCURACY层的top_k准确率计算,以及SOFTMAX_LOSS层的softmax计算。这些参数对于理解和调整模型至关重要。
最低0.47元/天 解锁文章
9087

被折叠的 条评论
为什么被折叠?



