鲸鱼优化BP实现回归预测,MATLAB代码免费获取无套路

今天为大家带来一期鲸鱼优化BP实现回归预测的案例。

原理详解

BP (back propagation)神经网络模型是一种在工 程应用广泛且具有优质泛化能力的前馈型神经网络, 具有强大的非线性映射能力、自学习和自 适应能力、泛化能力和容错能力, 能够通过学习自 动提取输出、输出数据间的“合理规则”, 并自适应 的将学习内容记忆于网络的权值中, 因此特别适合 于求解内部机制复杂的问题.。

2016年,Mirjalilis等人基于海洋中鲸鱼群 的集体狩猎行为提出了WOA算法,一经提出就受到了广泛研究人员的认可。在该群体智能优化算法中,鲸鱼的位置是一个局部解,鲸鱼捕获猎物的位置是全局最优解。与其他算法相比,鲸鱼优化算法具有结构简单、参数设置少、搜索能 力强、易于实现等优点,其捕猎行为可分为 包围猎物、泡泡网攻击和搜寻猎物。

采用WOA算法优化BP神经网络的权值阈值,可以达到提升模型精度的效果。首先确定BP神经网络的结构以及连接神经元的初始权值和阈值;其次,设置WOA中的最大迭代次数、种群规模等参数,并将上一步中的初始权值和初始阈值代入, 选取均方误差作为目标函数进行迭代寻优。然后当WOA满足最大迭代次数或达到精度要求后终止运算;最后,将最优权值和阈值导入到BP神经网络中,建立最优模型实现预测。

WOA优化BP模型的流程图如下:

22e0d15368877be2d323cfd4265e55e2.png

结果展示

标准BP的预测结果图:

0a448985b4f7e04342a1e139d7e0145e.png

WOA优化BP后的结果图:

b410ed930b24e28b27af0db5b83bec94.png

aca1c18a727bb497d411abb2de50544a.png

8f3d3d980e8b459dd0cece7ad1a4e71b.png

最后在同一个数据上,采用Lasso回归再进行一次预测,算是一个简单的对比实验:

390ad8116cd5802046e4025f05188584.png

代码展示

%% 初始化
clear
close all
clc
warning off


%% 数据读取
load('data.mat')
%输入输出数据
input=data(:,1:end-1);    %data的第一列-倒数第二列为特征指标
output=data(:,end);  %data的最后面一列为输出的指标值
testNum = 21; %测试样本量
%% 划分训练集、测试集
input_train = input';
output_train =output';
input_test =input';
output_test =output';


%% 数据归一化
[inputn,inputps]=mapminmax(input_train,0,1);
[outputn,outputps]=mapminmax(output_train);
inputn_test=mapminmax('apply',input_test,inputps);


%% 获取输入层节点、输出层节点个数
inputnum=size(input,2);
outputnum=size(output,2);
disp('/////////////////////////////////')
disp('神经网络结构...')
disp(['输入层的节点数为:',num2str(inputnum)])
disp(['输出层的节点数为:',num2str(outputnum)])
disp(' ')
disp('隐含层节点的确定过程...')


%确定隐含层节点个数
%采用经验公式hiddennum=sqrt(m+n)+a,m为输入层节点个数,n为输出层节点个数,a一般取为1-10之间的整数
MSE=1e+5; %初始化最小误差
for hiddennum=fix(sqrt(inputnum+outputnum))+1:fix(sqrt(inputnum+outputnum))+10
    
    %构建网络
    net=newff(inputn,outputn,hiddennum);
    % 网络参数
    net.trainParam.epochs=1000;         % 训练次数
    net.trainParam.lr=0.01;                   % 学习速率
    net.trainParam.goal=0.000001;        % 训练目标最小误差
    % 网络训练
    net=train(net,inputn,outputn);
    an0=sim(net,inputn);  %仿真结果
    mse0=mse(outputn,an0);  %仿真的均方误差
    disp(['隐含层节点数为',num2str(hiddennum),'时,训练集的均方误差为:',num2str(mse0)])
    
    %更新最佳的隐含层节点
    if mse0<MSE
        MSE=mse0;
        hiddennum_best=hiddennum;
    end
end
disp(['最佳的隐含层节点数为:',num2str(hiddennum_best),',相应的均方误差为:',num2str(MSE)])


%% 构建最佳隐含层节点的BP神经网络
disp(' ')
disp('标准的BP神经网络:')
net0=newff(inputn,outputn,hiddennum_best,{'tansig','purelin'},'trainlm');% 建立模型


%网络参数配置
net0.trainParam.epochs=1000;         % 训练次数,这里设置为1000次
net0.trainParam.lr=0.01;                   % 学习速率,这里设置为0.01
net0.trainParam.goal=0.00001;                    % 训练目标最小误差,这里设置为0.0001
net0.trainParam.show=25;                % 显示频率,这里设置为每训练25次显示一次
net0.trainParam.mc=0.01;                 % 动量因子
net0.trainParam.min_grad=1e-6;       % 最小性能梯度
net0.trainParam.max_fail=6;               % 最高失败次数


%开始训练
net0=train(net0,inputn,outputn);


%预测
an0=sim(net0,inputn_test); %用训练好的模型进行仿真


%预测结果反归一化与误差计算
test_simu0=mapminmax('reverse',an0,outputps); %把仿真得到的数据还原为原始的数量级
%误差指标
[mae0,mse0,rmse0,mape0,error0,errorPercent0]=calc_error(output_test,test_simu0);


%% 鲸鱼优化算法寻最优权值阈值
disp(' ')
disp('WOA优化BP神经网络:')
net=newff(inputn,outputn,hiddennum_best,{'tansig','purelin'},'trainlm');% 建立模型


%网络参数配置
net.trainParam.epochs=1000;         % 训练次数,这里设置为1000次
net.trainParam.lr=0.01;                   % 学习速率,这里设置为0.01
net.trainParam.goal=0.00001;                    % 训练目标最小误差,这里设置为0.0001
net.trainParam.show=25;                % 显示频率,这里设置为每训练25次显示一次
net.trainParam.mc=0.01;                 % 动量因子
net.trainParam.min_grad=1e-6;       % 最小性能梯度
net.trainParam.max_fail=6;               % 最高失败次数


%% 初始化WOA参数
popsize=30;   %初始种群规模
maxgen=50;   %最大进化代数
dim=inputnum*hiddennum_best+hiddennum_best+hiddennum_best*outputnum+outputnum;    %自变量个数
lb=repmat(-2,1,dim);    %自变量下限
ub=repmat(2,1,dim);   %自变量上限
%初始化位置向量和领导者得分
Leader_pos=zeros(1,dim);
Leader_score=10^20;   


%% 初始化种群
for i=1:dim
    ub_i=ub(i);
    lb_i=lb(i);
   Positions(:,i)=rand(popsize,1).*(ub_i-lb_i)+lb_i;
end
curve=zeros(maxgen,1);%初始化收敛曲线


%% 循环开始
h0=waitbar(0,'WOA-BP optimization...');
for t=1:maxgen
    for i=1:size(Positions,1)%对每个个体一个一个检查是否越界
        %对每个个体一个一个检查是否越界
        % 返回超出搜索空间边界的搜索代理
        Flag4ub=Positions(i,:)>ub;
        Flag4lb=Positions(i,:)<lb;
        Positions(i,:)=(Positions(i,:).*(~(Flag4ub+Flag4lb)))+ub.*Flag4ub+lb.*Flag4lb;%超过最大值的设置成最大值,超过最小值的设置成最小值
        %目标函数值的计算
        fit(i)=fitness(Positions(i,:),inputnum,hiddennum_best,outputnum,net,inputn,outputn,output_train,inputn_test,outputps,output_test);
        
        % 更新领导者位置
        if fit(i)<Leader_score
            Leader_score=fit(i);
            Leader_pos=Positions(i,:);
        end
    end
    
    a=2-t*((2)/maxgen);
    a2=-1+t*((-1)/maxgen);
    %参数更新
    for i=1:size(Positions,1)
        r1=rand();r2=rand();
        A=2*a*r1-a;
        C=2*r2;
       
        b=1;
        l=(a2-1)*rand+1;
        
        p = rand();
        
        for j=1:size(Positions,2)%对每一个个体地多维度进行循环运算
            %收缩包围机制
            if p<0.5
                if abs(A)>=1
                    rand_leader_index = floor(popsize*rand()+1);%floor将 X 的每个元素四舍五入到小于或等于该元素的最接近整数
                    X_rand = Positions(rand_leader_index, :);
                    D_X_rand=abs(C*X_rand(j)-Positions(i,j));
                    Positions(i,j)=X_rand(j)-A*D_X_rand;
                elseif abs(A)<1
                    D_Leader=abs(C*Leader_pos(j)-Positions(i,j));
                    Positions(i,j)=Leader_pos(j)-A*D_Leader;
                end
                %螺旋更新位置
            elseif p>=0.5
                distance2Leader=abs(Leader_pos(j)-Positions(i,j));
                Positions(i,j)=distance2Leader*exp(b.*l).*cos(l.*2*pi)+Leader_pos(j);
            end
        end
    end
    curve(t)=Leader_score;
    waitbar(t/maxgen,h0)
end
close(h0)
setdemorandstream(pi);


%% 绘制进化曲线
figure
plot(curve,'r-','linewidth',2)
xlabel('进化代数')
ylabel('均方误差')
legend('最佳适应度')
title('WOA的进化曲线')
w1=Leader_pos(1:inputnum*hiddennum_best);         %输入层到中间层的权值
B1=Leader_pos(inputnum*hiddennum_best+1:inputnum*hiddennum_best+hiddennum_best);   %中间各层神经元阈值
w2=Leader_pos(inputnum*hiddennum_best+hiddennum_best+1:inputnum*hiddennum_best+hiddennum_best+hiddennum_best*outputnum);   %中间层到输出层的权值
B2=Leader_pos(inputnum*hiddennum_best+hiddennum_best+hiddennum_best*outputnum+1:inputnum*hiddennum_best+hiddennum_best+hiddennum_best*outputnum+outputnum);   %输出层各神经元阈值
%矩阵重构
net.iw{1,1}=reshape(w1,hiddennum_best,inputnum);
net.lw{2,1}=reshape(w2,outputnum,hiddennum_best);
net.b{1}=reshape(B1,hiddennum_best,1);
net.b{2}=reshape(B2,outputnum,1);
%% 优化后的神经网络训练
net=train(net,inputn,outputn);%开始训练,其中inputn,outputn分别为输入输出样本
%% 优化后的神经网络测试
an1=sim(net,inputn_test);
test_simu1=mapminmax('reverse',an1,outputps); %把仿真得到的数据还原为原始的数量级
%误差指标
[mae1,mse1,rmse1,mape1,error1,errorPercent1]=calc_error(output_test,test_simu1);


%% 作图
figure
% plot(test_simu0,'r-v','linewidth',0.1,'markerfacecolor','r')
% hold on
plot(test_simu1,'b-o','linewidth',0.1,'markerfacecolor','w')
hold on
scatter(1:testNum, output_test,'r','*')
legend('WOA-BP预测值','真实值')
xlabel('测试样本编号')
ylabel('指标值')
title('WOA-BP神经网络预测值和真实值对比图')


figure
plot(error0,'rv-','markerfacecolor','r')
hold on
plot(error1,'ko-','markerfacecolor','k')
legend('BP预测误差','WOA-BP预测误差')
xlabel('测试样本编号')
ylabel('预测偏差')
title('WOA优化前后的BP神经网络预测值和真实值误差对比图')


% disp(' ')
% disp('/////////////////////////////////')
% disp('打印结果表格')
% disp('样本序号     实际值      BP预测值  WOA-BP值   BP误差   WOA-BP误差')
% for i=1:testNum
%     disp([i output_test(i),test_simu0(i),test_simu1(i),error0(i),error1(i)])
% end

完整代码免费获取无套路,后台回复关键词:

WOABP

下方卡片关注后获取

评论
成就一亿技术人!
拼手气红包6.0元
还能输入1000个字符
 
红包 添加红包
表情包 插入表情
 条评论被折叠 查看
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

淘个代码_

不想刀我的可以选择爱我

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值