一致化矩阵
Z1=[1 2 4 ; 3 4 1];Z2=[-1 2 2 ; -5 -6 1];
b=[0; -1]; q=3;
Z=concur(b,q)
向量之和
X1=netsum(Z1,Z2)
向量之积
X2=netprod(Z1,Z2)
感知器神经网络,完成“或”的计算
err_goal=0.001;
max_epoch=500;
X=[0 0 1 1 ; 0 1 0 1];T=[0 1 1 1];
[M,N]=size(X);[L,N]=size(T);
Wij=rand(L,M);b1=zeros(L,1);
X1=X;
y=hardlim(Wij*X1,b1)
for epoch=1:max_epoch
Y=hardlim(Wij*X,b1); %激活函数
E=T-y;
SSE=mae(E);
if(SSE<err_goal) break;end
Wij=Wij+E*X;
b1=b1+E;
end
epoch,Wij
散点
x=1:1:50;
y=[7.00 7.00 7.10 7.00 7.50 7.80 7.90 7.60 7.20 7.20 7.50 7.40 7.60 7.40 7.10 8.00 8.20 7.80 7.10 7.00 7.60 7.40 7.50 7.50 7.90 7.20 7.60 7.40 7.80 7.10 7.90 7.10 7.60 7.60 7.80 7.20 7.10 7.90 7.40 7.50 7.80 7.40 7.30 7.30 7.40 7.50 7.10 7.20 7.30 7.30 ];
plot(x,y)
2011-4-19
P=[1 2 3];%输入
T=[2 4.1 5.9];%期望输出
net=newlind(P,T);%设计网络
Y=sim(net,P)%仿真验证网络性能
有延迟条件的
P={1 2 1 3 3 2};%输入
Pi={1 3};%输入延迟
T={5 6 4 20 7 8};%输出向量
net=newlind(P,T, Pi);%构造网络
Y=sim(net, P, Pi)%验证网络输出
P=[2 1 -2 -1;2 -2 2 1];
T=[0 1 0 1];
net=newlin([-2 2;-2 2],1);
net.trainParam.goal=0.1;
[net,tr]=train(net,P,T);
A=sim(net,P)
err=T-A
例3.5
P=[+1.0 +1.3 +3.0 -1.2]; %输入向量
T=[+0.5 +1.1 +3.0 -1.0]; %期望输出
w_range=-2:0.4:2;
b_range=-2:0.4:2;
%ES= errsurf (P, T, w_range, b_range, ’ logsig’);
%plotes(w_range,b_range,ES)
maxlr= maxlinlr(P,'bias'); %寻找学习率
net=newlin([-2 2],1,[0],maxlr); %生成线性神经元
net.trainParam.epochs=15; %设置训练次数
net.trainParam.epochs=1;
net.trainParam.show=NaN;
h=plotep(net.IW{1},net.b{1},mse(T-sim(net,P)));
[net,tr]=train(net,P,T);
r=tr;
epoch=1;
while epoch<15
epoch=epoch+1;
[net,tr]=train(net,P,T);
if length(tr.epoch)>1
h=plotep(net.IW{1,1},net.b{1},tr.perf(2),h);
r.epoch=[r.epoch,epoch];
r.perf=[r.perf,tr.perf(2)];
r.vperf=[r.vperf NaN];
r.tperf=[r.tperf NaN];
else
break
end
end
tr=r;
plotperf(tr,net.trainParam.goal)
%BP网络的第一阶段学习期(训练加权系数wki,wij)
%初始化
lr=0.05;err_goal=0.001; %lr为学习速率;err_goal为期望误差最小值
max_epoch=10000;a=0.9; %max_epoch为训练的最大次数;a为惯性系数
Oi=0;Ok=0; %置隐含层和输出层各神经元输出初值为0
%提供两组训练集和目标值(3输入,2输出)
X=[1 1;-1 -1;1 1];T=[1 1;1 1];
%初始化wki,wij(M为输入节点j的数量;q为隐含层节点i的数量;L为输出节点k的数量)
[M,N]=size(X);q=8;[L,N]=size(T); %N为训练集对数量
wij=rand(q,M);wki=rand(L,q);
wij0=zeros(size(wij));wki0=zeros(size(wki));
for epoch=1:max_epoch
%计算隐含层各神经元的输出
NETi=wij*X;
for j=1:N
for i=1:q
Oi(i,j)=2/(1+exp(-NETi(i,j)))-1;
end
end
%计算输出层各神经元输出
NETk=wki*Oi;
for i=1:N
for k=1:L
Ok(k,i)=2/(1+exp(-NETk(k,i)))-1;
end
end
%计算误差函数
E=((T-Ok)'*(T-Ok))/2;
if(E<err_goal)break;end
%调整输出层加权系数
deltak=Ok.*(1-Ok).*(T-Ok);
w=wki;
wki=wki+lr*deltak*Oi'+a*(wki-wki0);
wki0=w;
%调整隐含层加权系数
deltai=Oi.*(1-Oi).*(deltak'*wki)';
w=wij;
wij=wij+lr*deltai*X'+a*(wij-wij0);
wij0=w;
end
epoch %显示计算次数
%BP网络的第二阶段工作期(根据局训练好的wki,wij和给定的输入计算输出)
X1=X; %给定输入
%计算隐含层各神经元输出
NETi=wij*X1;
for j=1:N
for i=1:q
Oi(i,j)=2/(1+exp(-NETi(i,j)))-1;
end
end
%计算输出层各神经元的输出
NETk=wki*Oi;
for i=1:N
for k=1:L
Ok(k,i)=2/(1+exp(-NETk(k,i)))-1;
end
end
Ok %显示网络输出层的输出
实验结果:
epoch =
2
Ok =
0.9914 0.9914
0.9903 0.9903