卷积神经网络细节上的问题总结

 一、卷积层和池化层有什么区别? 

   首先可以从结构上可以看出,卷积之后输出层的维度减小,深度变深。但池化层深度不变。同时池化可以把很多数据用最大值或者平均值代替。目的是降低数据量。降低训练的参数。对于输入层,当其中像素在邻域发生微小位移时,池化层的输出是不变的,从而能提升鲁棒性。而卷积则是把数据通过一个卷积核变化成特征,便于后面的分离。 

 二、采用宽卷积的好处有什么? 

  通过将输入边角的值纳入到滑窗中心进行计算,以便损失更少的信息。 

三、卷积输出的深度与哪个部件的个数相同? 

 输出深度(通道)与卷积核(过滤器)的个数相等。 

四、激活函数通常放在卷积神经网络的那个操作之后? 

   通常放在卷积层之后。 

五、为什么激活函数通常都是采用非线性的函数? 

  如果网络中都采用线性函数的组合,那么线性的组合还是线性,那么使用多次线性组合就等同于使用了一次线性函数。因此采用非线性函数可以来逼近任意函数。 

六、非线性激活函数中 sigmod 函数存在哪些不足? 

  Sigmod 函数存在饱和状态,尤其是值过大时,当进入饱和状态时,进行梯度下降计算时,很容易出现梯度消失的情况,求导的精确值不能保证。 

七、ReLU 和 SoftPlus 激活函数有哪些优势? 

  与 sigmod 相比,不存在指数计算,求导计算量变小,同时缓解了过拟合的情况,一部分输出为 0,减少了参数的相互依存。

评论
成就一亿技术人!
拼手气红包6.0元
还能输入1000个字符
 
红包 添加红包
表情包 插入表情
 条评论被折叠 查看
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值