caffe网络配置--各计算层

本文详细介绍了Caffe中卷积层、准确率输出、分类层、维度变换层、Dropout层等关键计算层的配置方法,包括参数设置和作用。例如,卷积层的参数设置涉及filter个数、padding、kernel_size和stride,而Dropout层用于防止过拟合,dropout_ratio通常设为0.5。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

caffe网络配置--各计算层

卷积层

layer {

 name: "conv1"

 type: "Convolution"

 bottom: "data"

 top: "conv1"

 param {

   lr_mult: 1   //学习率系数  最终学习率=solver中的学习率*lr_mult

  }

 param {

   lr_mult: 2  //若有两个ir_mult:则第一个表示权值学习率;第二个表示偏置项学习率。一般

  }                偏置项学习率是权值学习率2倍。

 convolution_param {

   num_output: 32    //卷积核filter个数

   pad: 2           //默认为0

   kernel_size: 5

   stride: 1

   weight_filler {

     type: "gaussian"        //权值初始化。默认为constant:全0。很多时候用xavier初

     std: 0.0001                 始化,也可设置为gaussian

   }

   bias_filler {

     type: "constant"          //偏置项初始化,constant为全0

   }

  }

}

 

输入:n*c0*w0*h0

输出:n*c1*w1*h1

c1即特征图个数

w1 = (w0+2*pad-kernel_size)/stride+1

h1 = (h0+2*pad-kernel_size)/stride+1

 

 准确率输出

layer {

 name: "accuracy"

 type: "Accuracy"

 bottom: "ip2"

 bottom: "label"

 top: "accuracy"

 include {

   phase: TEST

  }

}

 分类层

layer {

 name: "loss"

 type: "SoftmaxWithLoss"  //输出loss

 bottom: "ip2"

 bottom: "label"

 top: "loss"

}

 

layer {

 name: "prob"

 type: "Softmax"    //输出概率值

 bottom: "ip2"

 bottom: "label"

 top: "prob"

}

 维度变换层

layer {

 name: "reshape"

 type: "Reshape"    //不改变输入的数据值的大小,仅改变维度

 bottom: "input"

 top: "output"

reshape_param{

  shape{         //0:表示维度不变,-1表示系统自动计算维度。其它值:将原维度变为其它值

    dim:0

    dim:0

    dim:0

    dim: -1

 

}

}

}

原数据为(32*3*28*28)——> shape{0,0,14,-1}——>(32*3*14*56)

 Dropout层

//防止过拟合

layer {

 name: "drop"

 type: "Dropout"   

 bottom: "ip2"    //输入输出为同一层

 top: "ip2"

  dropout_param{

  dropout_ratio:0.5

}

激活函数层

太简单,不做说明

polling层

参考卷积层

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值