一般神经元模型

一般神经元

对于输入x=(x1,x2,,xn)Tw=(w1,w2,,wn)T为神经元输入权值,θ为偏置,u(x)f(x) 分别为神经元的基函数和激活函数。基函数 u(x)为多输入单输出函数u=u(x,w,θ),激活函数f(x) 一般对基函数输出u进行“挤压”,即通过非线性函数f(x)u变换到指定范围内。


基函数u(x)的类型

  1. 线性函数。多层感知器,Hopfield神经网络均采用此种基函数形式。采用线性函数时,基函数输出u为输入和阈值的加权和,即
    u=i=1nwixi+θ=xTwθ

    其中,xw均为列向量,θ为数。在多维空间中,此基函数形状为一个超平面。
  2. 距离函数。常用于RBF神经网络。此基函数为
    u=i=1n(xiwi)2=||xw||

    其中,w被称为基函数的中心。其集合意义是向量xw的欧式距离。在多维空间中,该基函数的形状是一个以w为球心的超球。
  3. 椭圆基函数。
    其在距离函数基础上加上因素上的权重,即
    u=i=1nci(xiwi)2

    在多维空间中,其为一个超椭球。

激活函数u=u(x)类型

  1. 硬极限函数
    单极限函数:

    y=f(u)={1,u00,u<0

    或双极限函数:
    y=f(u)=sgn(u)={1,u01,u<0

    式中,sgn(u)为符号函数。
  2. 线性函数
    表达式如下

    y=f(u)=u

    该激活函数通常用于实现函数逼近网络的输出层神经元
  3. 饱和线性函数
    饱和线性函数表达式为
    y=f(u)=12(|u+1||u1|)

    此函数与下列表达式等价
    y=f(u)=1u1,,,u11>u>1u1
  4. Sigmoid函数
    可用于分类、函数逼近与优化问题,严格单增且光滑,其函数形式为
    y=f(u)=11+eλu

    其中,λ称为Sigmoid函数的增益,是S型函数的斜率函数。λ越大,曲线越陡。其被称为双极性Sigmoid函数,值域为(0,1)。双曲正切S形激活函数(双极性Sigmoid函数)值域为(1,1),表达式如下
    y=f(u)=tanh(λu)=eλueλueλu+eλu
  5. 高斯函数
    一般用于RBF神经网络,表达式为
    y=f(u)=eu2δ2

    其中,δ为高斯函数的宽度或扩展常数,其值越大,函数曲线越平坦, 取值越小。

[1] 田玉波,混合神经网络技术,科学出版社,2009年6月

评论
成就一亿技术人!
拼手气红包6.0元
还能输入1000个字符
 
红包 添加红包
表情包 插入表情
 条评论被折叠 查看
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值