深度学习 BN 、LeakyReLU算法原理

本文详细介绍了深度学习中BN(批量归一化)算法的产生背景、实现方式及其在网络训练中的作用,同时探讨了Leaky ReLU作为ReLU的改进版,如何解决ReLU的神经元死亡问题。BN通过加速训练、改善模型稳定性,而Leaky ReLU旨在缓解ReLU的梯度消失问题,提高模型表现。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

BN和LeakyReLU

def DarknetConv2D_BN_Leaky(*args, **kwargs):
    # 归一化
    # DarkNet中用到的卷积块,卷积块中包含了归一化和激活函数
    """Darknet Convolution2D followed by BatchNormalization and LeakyReLU."""
    no_bias_kwargs = {
   
   'use_bias': False}
    no_bias_kwargs.update(kwargs)
    return compose(
        DarknetConv2D(*args, **no_bias_kwargs),
        BatchNormalization(),
        LeakyReLU(alpha=0.1))

以yolov3中DarkNet网络的这段代码为例,细说网络中的具体结构
该卷积块中包含三个内容:二维卷积操作(DarknetConv2D)、归一化(BatchNormalization)、非线性激活函数(LeakyReLU)。

  • 背景(为什么会提出这种方
评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值