45、激活函数 - 为什么非线性这么重要

激活函数:神经网络中的非线性关键
本文探讨了神经网络中激活函数的重要性,强调了非线性因素如何避免模型退化为线性模型,使得多层网络能处理复杂任务。通过在卷积层后加入非线性激活层(如ReLU),神经网络可以拟合非线性系统,提升模型表现。

这一节开始讲一讲神经网络中的激活函数,在讲激活函数之前,先讲一下非线性。

看一个基础知识:线性函数的叠加,我们初中学过的知识点

假设有一个线性函数,y = kx + b, 这个函数画出来是下面的样子,这里显示 y 和 x 是线性关系。

而如果这个时候又有一个线性关系 z = hy + d,那么,可以通过如下的线性变换,得到变量 z 和 x 同样也是线性关系。

z = hy + d

= z(kx + b) + d

= zk x + zb + d

= zk(x) + (zb + d)

令 zk = K, zb + d = B,那么 z 和 x 的关系就可以写出 z = Kx + B

所以,z 和 x 同样是线性关系。

这里想说的一个原理是:多个线性关系的叠加,还是线性关系,他不可能变成非线性关系。

回到神经网络,我们知道卷积的算法公式是 y = x * w, 其中 x 是输入数据,w 是权值,中间的 * 代表卷积计算。

那么x * w 是线性关系还是非线性关系呢?不好意思,就是线性关系。

这是因为卷积的核心计算是乘累加,这个概念我

评论
成就一亿技术人!
拼手气红包6.0元
还能输入1000个字符
 
红包 添加红包
表情包 插入表情
 条评论被折叠 查看
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

董董灿是个攻城狮

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值