第二章: 神经元模型和网络结构

本文深入探讨神经元模型、常用传输函数、网络结构及参数选择等关键概念,阐述单层与多层网络的特性,并介绍如何通过多层网络实现复杂函数逼近。同时,文章涉及递归网络、延时模块和积分器的概念,以及它们在神经网络中的应用。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

2.2 原理与实例
神经元模型: 单输入 a = f(wp+b), f为传输函数, w为权值, b为偏置, a为输出.
常用的三种传输函数:
    * 硬极限: hardlim(n) = {1, n>=0; 0, n<0}
    对称硬极限: hardlims(n) = {1, n>=0; -1, n<0}
    * 线性: purelin(n) = {a=n}
    饱和线性: satlin(n) = {a=0, n<0; a=n, 0<=n<=1; a=1, n>1}
    对称饱和线性: satlins(n) = {a=-1, n<-1; a=n, -1<=n<=1; a=1, n>1}
    正线性: poslin(n) = {a=0, n<0; a=n, n>=0}
    * Log-sigmoid函数 logsig(n) = 1/(1+e^(-n)), 将(-inf, inf)映射到(0, 1). 由于可微, 用于BP神经网络的训练.
    双曲正切S函数 tansig(n) = (e^n-e^(-n))/(e^n+e^(-n)), (-inf, inf)->(-1, 1)
    * 竞争函数: compet = {a=1, n最大的神经元; a=0, 其它神经元}
网络结构: 单层 a = f(Wp+ b), W为行向量, p/b/a为列向量. 多层 a1=f1(W1p1 + b1), a2=f2(W2a1 + b2), a3=f3(W3a2 + b3).
    多层网络比单层网络功能强大得多, 一个第一层具有S形传输函数, 第二层具有线性传输函数的网络, 可对大多数函数达到任意精度的逼近. 
    延时模块 a(t) = u(t-1), u(-1)==a(0)
    积分器 a(t) = a(0) + Su(x)dx, x==[0:t]
    递归网络 a(0)=p, a(t) = f( Wa(t-1) + b ). 递归网络比前馈网络本质上有更强的能力, 它可以表现出时间性行为. 
参数选择: 单层网络神经元的个数由问题本身决定( 输入变量个数、输出变量个数), 多层网络的神经元个数没有理论上解决, 层数一般2~3层, 很少有4层. 偏置可选可不选, 选了可以
    增强功能. 
    

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值