2.2 原理与实例
神经元模型: 单输入 a = f(wp+b), f为传输函数, w为权值, b为偏置, a为输出.
常用的三种传输函数:
* 硬极限: hardlim(n) = {1, n>=0; 0, n<0}
对称硬极限: hardlims(n) = {1, n>=0; -1, n<0}
* 线性: purelin(n) = {a=n}
饱和线性: satlin(n) = {a=0, n<0; a=n, 0<=n<=1; a=1, n>1}
对称饱和线性: satlins(n) = {a=-1, n<-1; a=n, -1<=n<=1; a=1, n>1}
正线性: poslin(n) = {a=0, n<0; a=n, n>=0}
* Log-sigmoid函数 logsig(n) = 1/(1+e^(-n)), 将(-inf, inf)映射到(0, 1). 由于可微, 用于BP神经网络的训练.
双曲正切S函数 tansig(n) = (e^n-e^(-n))/(e^n+e^(-n)), (-inf, inf)->(-1, 1)
* 竞争函数: compet = {a=1, n最大的神经元; a=0, 其它神经元}
网络结构: 单层 a = f(Wp+ b), W为行向量, p/b/a为列向量. 多层 a1=f1(W1p1 + b1), a2=f2(W2a1 + b2), a3=f3(W3a2 + b3).
多层网络比单层网络功能强大得多, 一个第一层具有S形传输函数, 第二层具有线性传输函数的网络, 可对大多数函数达到任意精度的逼近.
延时模块 a(t) = u(t-1), u(-1)==a(0)
积分器 a(t) = a(0) + Su(x)dx, x==[0:t]
递归网络 a(0)=p, a(t) = f( Wa(t-1) + b ). 递归网络比前馈网络本质上有更强的能力, 它可以表现出时间性行为.
参数选择: 单层网络神经元的个数由问题本身决定( 输入变量个数、输出变量个数), 多层网络的神经元个数没有理论上解决, 层数一般2~3层, 很少有4层. 偏置可选可不选, 选了可以
增强功能.