自动驾驶背后的数学:ReLU,Sigmoid, Leaky ReLU, PReLU,Swish等激活函数解析

随着自动驾驶技术的飞速发展,深度学习在其中扮演着至关重要的角色。而激活函数作为神经网络中的关键组件,直接影响着模型的性能和效果。前面几篇博客 自动驾驶背后的数学:特征提取中的线性变换与非线性激活 , 「自动驾驶背后的数学:从传感器数据到控制指令的函数嵌套」—— 揭秘人工智能中的线性函数、ReLU 与复合函数中, 非线性激活函数举例只讲到了ReLU 函数。本文将深入探讨自动驾驶中常见的激活函数,包括 ReLU、Sigmoid、Leaky ReLU、PReLU 和 Swish,解析它们的数学原理、应用场景及 PyTorch 实现代码。

一、基础激活函数解析

1. ReLU (Rectified Linear Unit)

数学表达式
f

leakyrelu激活函数是一种常用的激活函数之一,它是ReLU函数的一种变体。它的图像可以描述如下:在输入小于0的区间,leakyrelu函数的输出是一个小的线性系数乘以输入值;而在输入大于等于0的区间,leakyrelu函数的输出与输入值相等。这个小的线性系数通常取一个较小的正数,比如0.01。这样设计的目的是为了在输入小于0的情况下,避免ReLU函数的神经元“死亡”,使得梯度能够在这个区间内有一个非零的值,从而提高模型的收敛速度和性能。<span class="em">1</span><span class="em">2</span><span class="em">3</span> #### 引用[.reference_title] - *1* *3* [深度学习激活函数总结(sigmoid,tanh,ReLULeaky ReLU,EReLUPReLU,Softmax,Swish,Maxout,...](https://blog.youkuaiyun.com/winter2121/article/details/122326697)[target="_blank" data-report-click={"spm":"1018.2226.3001.9630","extra":{"utm_source":"vip_chatgpt_common_search_pc_result","utm_medium":"distribute.pc_search_result.none-task-cask-2~all~insert_cask~default-1-null.142^v93^chatsearchT3_2"}}] [.reference_item style="max-width: 50%"] - *2* [机器学习中的数学——激活函数(四):Leaky ReLU函数](https://blog.youkuaiyun.com/hy592070616/article/details/120617996)[target="_blank" data-report-click={"spm":"1018.2226.3001.9630","extra":{"utm_source":"vip_chatgpt_common_search_pc_result","utm_medium":"distribute.pc_search_result.none-task-cask-2~all~insert_cask~default-1-null.142^v93^chatsearchT3_2"}}] [.reference_item style="max-width: 50%"] [ .reference_list ]
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

赛卡

逐梦而行即辉煌

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值