layers {
name: "norm1"
type: LRN
bottom: "pool1"
top: "norm1"
lrn_param {
local_size: 5
alpha: 0.0001
beta: 0.75
}
}
Local Response Normalization (LRN)层
此层是对一个输入的局部区域进行归一化,达到“侧抑制”的效果。
可去搜索AlexNet或GoogLenet,里面就用到了这个功能
网络结构显示工具

name: "CaffeNet"
layers {
name: "data"
type: DATA
top: "data"
top: "label"
data_param {
source: "/home/ubuntu/AdienceFaces/lmdb/Test_fold_is_3/gender_train_lmdb"
backend: LMDB
batch_size: 50
}
transform_param {
crop_size: 227
mean_file: "/home/ubuntu/AdienceFaces/mean_image/Test_folder_is_3/mean.binaryproto"
mirror: true
}
include: { phase: TRAIN }
}
layers {
name: "data"
type:

本文详细介绍了Caffe框架中LRN(局部响应归一化)层的工作原理和作用,该层常用于卷积神经网络中,以提高模型的泛化能力。LRN通过对神经元的激活值进行归一化,限制相邻神经元间的竞争,有助于网络训练过程的稳定。
最低0.47元/天 解锁文章
3525

被折叠的 条评论
为什么被折叠?



