神经网络之激励函数(Activation Function)

激活函数在神经网络中起到关键作用,它将神经元的线性输入转化为非线性输出,以引入非线性因素解决线性模型无法很好处理的问题。激活函数通过非线性映射,使得网络能处理更复杂的模式,如在分类问题中用曲线而非直线来区分数据点。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

一、什么是激励函数?

在人工神经网络中,单个神经元的输入与输出之间的函数关系叫做激励函数。

Activation Function 也可翻译为“激活函数”,它用于激活某些神经元并把激活的神经元接受到的值通过映射,作为输出传递下去。

激励函数实质上是一种将线性方程非线性化的方法。
函数 y = AF(Wx+b) 中 x 表示输入、y 表示输出,Wx+b 是一个关于 x 的线性方程,而激励函数 AF 就负责将这个线性方程“掰弯”(即把它变成非线性的)。简而言之,激励函数就是对数据进行非线性化处理。

二、为什么需要激励函数?

根本原因是为了引入非线性因素。线性模型在很多情况下不能很好地表现实际情况,对于一些情况并不适用。

例如,要将一个平面上的两类点分隔开,有时一条直线就可以很好地实现,但是有时需要用曲线才能较好地区分。

在下面这张图中,一条直线就可以将红蓝两类点区分开来。
这里写图片描述

但是对于这张图,就无法用一条直线区分了。
这里写图片描述

但是用一条曲线就可以。

回答: 在BP神经网络中,激励函数是用来引入非线性因素的。如果不使用激励函数神经网络的每一层都只是做线性变换,多层输入叠加后仍然是线性变换。而线性模型的表达能力有限,无法处理复杂的非线性关系。因此,激励函数的作用是将线性变换的结果映射到非线性空间,从而增加神经网络的表达能力。\[2\]在BP神经网络中,常用的激励函数有Sigmoid函数、ReLU函数等。这些函数能够将输入的实数映射到一个特定的范围内,使得神经网络能够更好地适应不同的数据分布和模式。所以,函数拟合神经网络(fitnet)中的激励函数是BP神经网络中的一部分,用来引入非线性因素,提高神经网络的表达能力。 #### 引用[.reference_title] - *1* *3* [BP神经网络中s函数的作用,bp神经网络的目标函数](https://blog.youkuaiyun.com/ynca67269/article/details/126909540)[target="_blank" data-report-click={"spm":"1018.2226.3001.9630","extra":{"utm_source":"vip_chatgpt_common_search_pc_result","utm_medium":"distribute.pc_search_result.none-task-cask-2~all~insert_cask~default-1-null.142^v91^insertT0,239^v3^insert_chatgpt"}} ] [.reference_item] - *2* [通俗理解神经网络激励函数(Activation Function)](https://blog.youkuaiyun.com/u010599509/article/details/51789186)[target="_blank" data-report-click={"spm":"1018.2226.3001.9630","extra":{"utm_source":"vip_chatgpt_common_search_pc_result","utm_medium":"distribute.pc_search_result.none-task-cask-2~all~insert_cask~default-1-null.142^v91^insertT0,239^v3^insert_chatgpt"}} ] [.reference_item] [ .reference_list ]
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值