ReLU激活函数的快速介绍

ReLU全名Rectified Linear Unit,意思是修正线性单元。Relu激活函数是常用的神经激活函数。
ReLU函数其实是分段线性函数,把所有的负值都变为0,而正值不变,这种操作被成为单侧抑制。
被水印挡住的部分是:当x>0时,值为x,而当x<0时,值为0

ReLU的优点:①ReLu具有稀疏性,可以使稀疏后的模型能够更好地挖掘相关特征,拟合训练数据;
②在x>0区域上,不会出现梯度饱和、梯度消失的问题;
③计算复杂度低,不需要进行指数运算,只要一个阈值就可以得到激活值。

RuLU的缺点也同样明显:①输出不是0对称
②由于小于0的时候激活函数值为0,梯度为0,所以存在一部分神经元永远不会得到更新
在这里插入图片描述

资料扩展
为了弥补sigmoid函数和tanh函数的缺陷,所以出现了ReLU激活函数。
这些激活函数的出现有一个历史先后问题, sigmoid函数出现的早, ReLU是晚辈;其次,不存在绝对的说法让ReLU完胜其它任何方案,因为在很多时候,不试一试别的方案,谁都不敢拍胸脯说这个网络已经没法提升了, 这就是神经网络的特点。
dReLu是对ReLU函数求导后的图像

ReLU激活函数求导不涉及浮点运算,所以速度更快。在z大于零时梯度始终为1;在z小于零时梯度始终为0;z等于零时的梯度可以当成1也可以当成0,实际应用中并不影响。
对于隐藏层,选择ReLU作为激活函数,能够保证z大于零时梯度始终为1,从而提高神经网络梯度下降算法运算速度。

### ReLU 激活函数在深度学习中的使用及代码实现 ReLU(Rectified Linear Unit)激活函数是一种常见的非线性激活函数,其核心作用在于引入非线性变换,使神经网络能够学习更复杂的模式和特征[^2]。它通过简单的数学表达式 \(f(x) = \max(0, x)\) 实现,在输入小于等于零时输出为零,而在输入大于零时输出等于输入值。 #### ReLU 的特点 - **计算简单**:由于仅涉及最大值运算,ReLU 的计算成本较低。 - **无梯度消失问题**:对于正数区域,ReLU 的导数恒为 1,因此不会像某些其他激活函数那样出现梯度消失现象。 - **加速收敛**:相比传统的 sigmoid 和 tanh 函数,ReLU 能够显著加快模型的训练速度并提升泛化能力[^2]。 #### TensorFlow 中的 ReLU 实现 以下是使用 TensorFlow 实现 ReLU 激活函数的示例: ```python import tensorflow as tf # 定义一个简单的全连接层,并应用 ReLU 激活函数 model = tf.keras.Sequential([ tf.keras.layers.Dense(64, activation='relu', input_shape=(32,)), # 隐藏层,64个单元 tf.keras.layers.Dense(10) # 输出层 ]) # 打印模型结构 model.summary() ``` 在此代码中,`activation='relu'` 参数指定了该层使用的激活函数ReLU[^1]。 #### PyTorch 中的 ReLU 实现 下面是一个基于 PyTorch 的 ReLU 使用示例: ```python import torch import torch.nn as nn class ModelWithReLU(nn.Module): def __init__(self): super(ModelWithReLU, self).__init__() self.fc1 = nn.Linear(10, 5) # 输入维度为10,输出维度为5 self.relu = nn.ReLU() # ReLU激活函数 def forward(self, x): x = self.fc1(x) x = self.relu(x) return x # 创建模型实例 model = ModelWithReLU() # 输入示例 input_data = torch.randn(3, 10) # 输入数据维度为(3, 10) # 前向传播 output = model(input_data) print(output) ``` 此代码展示了如何在自定义模型中集成 ReLU 激活函数。 #### 计算图表示与反向传播 为了进一步理解 ReLU 层的工作机制,可以通过构建计算图来描述其前向传播和反向传播过程。以下是从头开始手动实现 ReLU 及其梯度计算的方法: ```python import numpy as np def relu_forward(x): """ReLU 前向传播""" cache = x out = np.maximum(0, x) return out, cache def relu_backward(dout, cache): """ReLU 反向传播""" dx, x = None, cache dx = dout.copy() dx[x <= 0] = 0 return dx # 测试 x = np.array([-1, 2, -3, 4]) dout = np.array([1, 1, 1, 1]) out, cache = relu_forward(x) dx = relu_backward(dout, cache) print("前向传播结果:", out) print("反向传播梯度:", dx) ``` 这段代码实现了 ReLU 的前向传播和反向传播逻辑,便于深入研究其内部工作机制[^3]。 --- ###
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值