激活函数( activation function)的理解笔记

本文深入探讨了激活函数在神经网络中的关键作用,包括解决线性模型表达力不足的问题,如异或问题。介绍了常见的激活函数如ReLU、sigmoid及其变形tanh,以及输出层常用的softmax函数,用于归一化处理和增强数据对比度。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

  • 笔记1来自知乎网友lee philip的回答:    

激活函数是用来加入非线性因素的,因为线性模型的表达能力不够。比如异或问题,激活函数我们选择阀值函数(threshold function),也就是大于某个值(如0)输出1(被激活了),小于等于则输出0(没有激活),这个函数是非线性函数。

其中直线上的数字为权重。圆圈中的数字为阀值。第二层,如果输入大于1.5则输出1,否则0;第三层,如果输入大于0.5,则输出1,否则0. 所以,对于那种用一条线没办法分类的问题,就可以用神经网络的方式转化为非线性问题,然后加入激励函数进行01选择,最后输出分类结果。

  • 笔记2:

常用的激励函数:ReLU,意思是:大于0的部分保留,小于等于0的部分记为0,由于矩阵稀疏性运算速度会加快,比下面两种常用。

其他还有比较古老的激励函数,如sigmoid函数:

还有sigmoid函数的变形tanh函数:

  • 笔记3:

在神经网络输出层部分,常用softmax函数来进行归一化处理,同时增强数据间的对比度。

softmax:

 

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值