神经网络:sigmoid neurons(sigmoid神经元)

本文探讨了perceptrons在处理某些问题时的缺陷,特别是其输出变化的突然性。为了解决这个问题,文章提出了sigmoid神经元的概念。sigmoid神经元通过sigmoid函数实现更平滑的输出变化,从而更好地处理连续性和非线性问题。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

perceptrons的缺陷

学习算法听起来很奇妙,但是我们如何设计这种算法以供神经网络使用?假设我们有一个perceptrons,我们想用它来学习处理一些问题,例如,有一些来自扫描仪扫描出来的手写数字图片,我们拿它们的像素数据作为inputs,然后我们让这个神经网络去学习如何判别这些数字,这个过程,将会计算出合适的权重和biase。

这里写图片描述

如上图,我们假设这里写图片描述 表示一些在perceptron上的小改变,改变原因是这样的:错误地把9识别为8.通过调整权重,我们得到正确的输出,它是在原来的输出上多一个这里写图片描述

像上述这种问题,解决方法是有缺陷的,实际上,对一个perceptron上的小改动,可能会影响到ouput的完全flip,也就是从0到1,从1到0。这让我们很难看到渐变的过程(为毛要看渐变的过程?这个好像涉及到数学问题,想知道吗?可以继续关注本系列)

sigmoid neuron的提出

对于perceptron的问题,我们可以用一种新的人工网络sigmoid neruron。sigmoid neruron和perceptron相似,不过权重和bias的影响没有perceptron显著,其表现更加gradually(逐渐地)。

下图是sigmoid neruron的例子:

这里写图片描述

定义和perceptron基本相同,有输入有输出,也有权重和bias,但是其ouput实介于0~1的数,也就是说,0.638也可以是ouput的。其输出的公式是利用了sigmoid函数:这里写图片描述
sigmoid函数公式如下:

这里写图片描述

代入公式后:
这里写图片描述

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值