DropBlock

DropBlock是谷歌大脑提出的卷积神经网络正则化技术,旨在解决传统dropout在卷积层效果不佳的问题。通过在特征图上成块地丢弃特征,而不是随机丢弃单个元素,从而鼓励网络学习更有效的特征。实验结果显示,DropBlock在resnet50和retinaNet等模型上带来了约1%的性能提升。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

dropblock

  • dropblock技术是谷歌大脑研发人员于2018年提出的一项在卷积神经网络中使用的正则化技术

何谓正则化?为什么要使用正则化技术

  • 在卷积神经网络中,网络的参数非常多,为了避免出现过拟合的问题,就需要使用到正则化技术。常见的正则化如L1,L2正则化

dropblock解决的问题是什么?

  • 在传统的深度神经网络中,常常在全连接层后面使用dropout操作来减少在网络学习的过程中该全连接层权重需要发生改变的数量,这是一种使用广泛的方法,但是在卷积层后面接dropout就难以奏效。
  • 作者认为出现这种情况的原因在于,卷积层的特征图中相邻元素在空间上是共享语义信息的,产生这种现象的原因正是卷积操作能够提取特征,具有感受野。Dropout方法在特征图上随机的丢弃元素,但与其相邻的元素人让可以保证相对的位置的语义信息。如下面的图(b)所示,其中x代表丢弃的位置,绿色区域代表在当前特征图中具有语义信息的区域。
  • 因此作者提出使用dropblock方法来改进dropout,drop(丢弃)block(成块)操作正如其名,在特征图上成块的丢弃特征,来达到有效丢弃语义信息,激励网络学到更加有效的特征。如下面的图(c)所示。
    在这里插入图片描述

如何实现?

  • 这种简单有效的思想如何实现呢,论文中给出了伪代码:

    • 先判断当前过程是推理还是训练
    • 如果当前过程是推理,那么取消正则化
    • 如果当前过程是训练过程,就随机在当前特征图上生成随机种子,然后在种子的一定
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值