sigmoid函数原理及饱和后梯度消失的问题

探讨Sigmoid函数原理,其在神经网络中的应用及饱和导致的梯度消失问题。介绍BatchNormalization层如何缓解梯度消失,保持sigmoid函数的非线性特性。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

sigmoid函数原理及饱和后梯度消失的问题

sigmoid函数结构

在这里插入图片描述 sigmoid函数,是神经网络中的一种激活函数,其输出范围在(0,1)之间。主要运动于:
1、 作为激活函数,利用输出范围(0,1)与其非线性的特点,常用于在神经网络中间层作为激活函数;
2、在神经网络的最后一层将结果规则化在(0,1)之间。

sigmoid函数饱和带来的问题

1、 梯度消失
一种解决方法是在sigmoid层之前加入Batch Normalization层,即进行批规范化处理(BN),就是对每个神经元的输出进行规范化,使得均值为 0,方差为 1,之后再进入激活函数。但是每一层规范化后,输出就以极大的概率落在靠近中心的区间,这个区域sigmoid的梯度变化很大,也就不存在梯度消失的问题,但是又比较笔直,近似于线性。于是BN引入了新的参数进行学习,对规范化后的输出做一次线性映射,同时对参数进行学习,提高输出落在非线性区间的概率, 使得sigmoid 函数梯度小和线性表达之间做了一个平衡。
在这里插入图片描述

评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值