激活函数大汇总(三)(Swish & GELU附代码和详细公式)
更多激活函数见激活函数大汇总列表
一、引言
欢迎来到我们深入探索神经网络核心组成部分——激活函数的系列博客。在人工智能的世界里,激活函数扮演着不可或缺的角色,它们决定着神经元的输出,并且影响着网络的学习能力与表现力。鉴于激活函数的重要性和多样性,我们将通过几篇文章的形式,本篇详细介绍两种激活函数,旨在帮助读者深入了解各种激活函数的特点、应用场景及其对模型性能的影响。
在接下来的文章中,我们将逐一探讨各种激活函数,从经典到最新的研究成果。
限于笔者水平,对于本博客存在的纰漏和错误,欢迎大家留言指正,我将不断更新。
二、Swish
Swish激活函数是由Google Brain团队在2017年提出的,旨在提高深度学习模型在各种任务上的性能。Swish函数是通过自门控机制(即输入和输出之间的相互作用)来增强模型的表达能力,从而解决了传统激活函数,如ReLU,可能面临的一