matlab学习笔记

这篇博客详细记录了MATLAB中进行一致化矩阵、向量运算、感知器神经网络的学习过程,以及散点图的绘制。通过实例展示了如何使用MATLAB进行线性神经网络的设计、训练和性能验证,并探讨了有延迟条件的神经网络问题。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

 

一致化矩阵

Z1=[1 2 4 ; 3 4 1];Z2=[-1 2 2 ; -5 -6 1];

b=[0; -1]; q=3;

Z=concur(b,q)

 

向量之和

X1=netsum(Z1,Z2)

 

向量之积

X2=netprod(Z1,Z2)

 

感知器神经网络,完成“或”的计算

 

err_goal=0.001;

max_epoch=500;

X=[0 0 1 1 ; 0 1 0 1];T=[0 1 1 1];

[M,N]=size(X);[L,N]=size(T);

Wij=rand(L,M);b1=zeros(L,1);

X1=X;

y=hardlim(Wij*X1,b1)

 

for epoch=1:max_epoch

         Y=hardlim(Wij*X,b1);       %激活函数

E=T-y;

SSE=mae(E);

if(SSE<err_goal) break;end

Wij=Wij+E*X;

b1=b1+E;

end

epoch,Wij

 

 

散点

x=1:1:50;

y=[7.00 7.00 7.10 7.00 7.50 7.80 7.90 7.60 7.20 7.20 7.50 7.40 7.60 7.40 7.10 8.00 8.20 7.80 7.10 7.00 7.60 7.40 7.50 7.50 7.90 7.20 7.60 7.40 7.80 7.10 7.90 7.10 7.60 7.60 7.80 7.20 7.10 7.90 7.40 7.50 7.80 7.40 7.30 7.30 7.40 7.50 7.10 7.20 7.30 7.30 ];

plot(x,y)


 

2011-4-19

P=[1 2 3];%输入

T=[2 4.1 5.9];%期望输出

net=newlind(P,T);%设计网络

Y=sim(net,P)%仿真验证网络性能

 

 

有延迟条件的

P={1 2 1 3 3 2};%输入

Pi={1 3};%输入延迟

T={5 6 4 20 7 8};%输出向量

net=newlind(P,T, Pi);%构造网络

Y=sim(net, P, Pi)%验证网络输出

 

P=[2 1 -2 -1;2 -2 2 1];

T=[0 1 0 1];

net=newlin([-2 2;-2 2],1);

net.trainParam.goal=0.1;

[net,tr]=train(net,P,T);

 

A=sim(net,P)

err=T-A

 

 

 

例3.5

P=[+1.0  +1.3  +3.0  -1.2];                             %输入向量

T=[+0.5  +1.1  +3.0  -1.0];                             %期望输出

w_range=-2:0.4:2; 

b_range=-2:0.4:2;

%ES= errsurf (P, T, w_range, b_range, ’ logsig’);

%plotes(w_range,b_range,ES)

 

maxlr= maxlinlr(P,'bias');          %寻找学习率

net=newlin([-2 2],1,[0],maxlr);         %生成线性神经元

net.trainParam.epochs=15;             %设置训练次数

 

net.trainParam.epochs=1;

net.trainParam.show=NaN;

h=plotep(net.IW{1},net.b{1},mse(T-sim(net,P)));

[net,tr]=train(net,P,T);

r=tr;

epoch=1;

while epoch<15

         epoch=epoch+1;

         [net,tr]=train(net,P,T);

         if length(tr.epoch)>1

                   h=plotep(net.IW{1,1},net.b{1},tr.perf(2),h);

                   r.epoch=[r.epoch,epoch];

                   r.perf=[r.perf,tr.perf(2)];

r.vperf=[r.vperf NaN];

r.tperf=[r.tperf NaN];

         else

                   break

                   end

         end

tr=r;

 

plotperf(tr,net.trainParam.goal)

 

%BP网络的第一阶段学习期(训练加权系数wki,wij)
%初始化
lr=0.05;err_goal=0.001;     %lr为学习速率;err_goal为期望误差最小值
max_epoch=10000;a=0.9;      %max_epoch为训练的最大次数;a为惯性系数
Oi=0;Ok=0;                  %置隐含层和输出层各神经元输出初值为0
%提供两组训练集和目标值(3输入,2输出)
X=[1 1;-1 -1;1 1];T=[1 1;1 1];
%初始化wki,wij(M为输入节点j的数量;q为隐含层节点i的数量;L为输出节点k的数量)
[M,N]=size(X);q=8;[L,N]=size(T); %N为训练集对数量
wij=rand(q,M);wki=rand(L,q);
wij0=zeros(size(wij));wki0=zeros(size(wki));
for epoch=1:max_epoch
    %计算隐含层各神经元的输出
    NETi=wij*X;
    for j=1:N
        for i=1:q
            Oi(i,j)=2/(1+exp(-NETi(i,j)))-1;
        end
    end
    %计算输出层各神经元输出
    NETk=wki*Oi;
    for i=1:N
        for k=1:L
            Ok(k,i)=2/(1+exp(-NETk(k,i)))-1;
        end
    end
    %计算误差函数
    E=((T-Ok)'*(T-Ok))/2;
    if(E<err_goal)break;end
    %调整输出层加权系数
    deltak=Ok.*(1-Ok).*(T-Ok);
    w=wki;
    wki=wki+lr*deltak*Oi'+a*(wki-wki0);
    wki0=w;
    %调整隐含层加权系数
    deltai=Oi.*(1-Oi).*(deltak'*wki)';
    w=wij;
    wij=wij+lr*deltai*X'+a*(wij-wij0);
    wij0=w;
end
epoch               %显示计算次数
%BP网络的第二阶段工作期(根据局训练好的wki,wij和给定的输入计算输出)
X1=X;               %给定输入
%计算隐含层各神经元输出
NETi=wij*X1;
for j=1:N
    for i=1:q
        Oi(i,j)=2/(1+exp(-NETi(i,j)))-1;
    end
end
%计算输出层各神经元的输出
NETk=wki*Oi;
for i=1:N
    for k=1:L
        Ok(k,i)=2/(1+exp(-NETk(k,i)))-1;
    end
end
Ok                  %显示网络输出层的输出
实验结果:


epoch =

     2


Ok =

    0.9914    0.9914
    0.9903    0.9903

 

 

 

 

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值