当卷积层后跟batch normalization层时为什么不要偏置b

本文探讨了从Inception-v2到v3模型的卷积模块设计变化,重点解析了v3中卷积层与批量标准化(BN)的关系,解释了为何v3模型在使用BN时不再保留偏置项,以及这种设计如何不影响模型的学习能力。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

起因

之前使用的是inception-v2模型,在v2中,标准的卷积模块为:
* conv_w_b->bn->relu ->pooling*
即,在v2中,尽管在卷积之后、激活函数之前大量使用batch normalization,但是卷积层依然使用可学习的偏置参数。

这也比较符合我的直观理解,因为偏置在一般的卷积神经网络中本来就是很重要的,可以让超判决面不过原点。
但是我在读inception-v3的代码时,发现v3中一个卷积模块中 bn和bias是不共存的,这令我很费解,这么重要的参数为什么没有?

后来想明白了,接下来是明白的过程:

首先,看bias的有无到底会不会对bn的结果造成影响?
bn操作的关键一步可以简写为:

好了。
那么为什么没有bias的卷积层能够对bn后的输入学习到很好的决策面呢?
当然啦,bn本身就是将数据归一化到标准分布的呀~
---------------------  
作者:夕何  
来源:优快云  
原文:https://blog.youkuaiyun.com/u010698086/article/details/78046671  
版权声明:本文为博主原创文章,转载请附上博文链接!

评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值