番外篇 | 超越ReLU却鲜为人知,YOLOv5改进之崛起的最佳激活函数GELU!

本文探讨了GELU激活函数在神经网络中的应用,它被用于BERT、RoBERTa、ALBERT和GPT-2等先进模型。相较于ReLU,GELU能提供更好的性能,尤其在深度学习任务中。文中介绍了GELU的优势以及如何在YOLOv5等目标检测网络中引入GELU激活函数。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

前言:Hello大家好,我是小哥谈。作为决定神经网络是否传递信息的「开关」,激活函数对于神经网络而言至关重要。不过今天被人们普遍采用的ReLU真的是最高效的方法吗?最近在社交网络上,人们找到了一个看来更强大的激活函数:GELU,这种方法早在2016年即被人提出,然而其论文迄今为止在Google Scholar上的被引用次数却只有34次。其实,GELU已经被很多目前最为领先的模型所采用。据不完全统计,BERTRoBERTaALBERT等目前业内顶尖的NLP模型都使用了这种激活函数。另外,在OpenAI声名远播的无监督预训练模型GPT-2中,研究人员在所有编码器模块中都使用了GELU激活函数。🌈

     目录

🚀1.论文解析

🚀2.添加方法

💥💥步骤1:修改a

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

小哥谈

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值