WOA-LightGBM回归预测,基于鲸鱼算法优化LightGBM的多变量回归预测,多输入单输出,可输出特征重要性图。
利用WOA算法对LightGBM的参数进行自动化寻优,优化的参数为:叶子数、学习率、树的深度~程序已调试好,无需更改代码直接替换Excel运行!
LightGBM(Light Gradient Boosting Machine)是一种高效的梯度提升决策树(GBDT)模型,特别适合大规模数据集和高维度特征。在回归预测中,LightGBM通过构建决策树模型来进行预测,而其高效性和准确性主要来自于其算法优化和特性。
评价指标包括:R2、MAE、MSE、RMSE和MAPE等,代码质量极高,方便学习和替换数据。
WOA优化EMD/VMD/ICCEMD/SVM/LSSVM/ELM/BP/KELM/RF/DELM/LSTM/BILSTM/GRU/HKELM/XGboost/PNN/CNN/VMD/ICEEMDAN/lightGBM/组合模型CNN-SVM/CNN-LSTM/CNN-GRU/CNN-BiLSTM/LSTM-Attention/GRU-Attention/CNN-LSTM-Attention/TCN/TCN-LSTM/TCN-BILSTM/TCN-GRU/TCN-BIGRU/BITCN/BITCN-LSTM/BITCN-BILSTM/BITCN-GRU/BITCN-BIGRU/Transformer/Transformer-LSTM/Transformer-BILSTM/Transformer-GRU/Transformer-BIGRU等等多种分类/回归/时序/分解/区间预测/多输入多输出/聚类/组合预测模型,具体私信。
warning off % 关闭报警信息
close all % 关闭开启的图窗
clear % 清空变量
clc % 清空命令行
%% 添加路径
addpath('Lightgbm_toolbox\')
loadlibrary('lib_lightgbm.dll', 'c_api.h')
%% 导入数据
res = xlsread('数据集.xlsx');
%% 数据分析
num_size = 0.7; % 训练集占数据集比例
outdim = 1; % 最后一列为输出
num_samples = size(res, 1); % 样本个数
res = res(randperm(num_samples), :); % 打乱数据集(不希望打乱时,注释该行)
num_train_s = round(num_size * num_samples); % 训练集样本个数
f_ = size(res, 2) - outdim; % 输入特征维度
%% 划分训练集和测试集
P_train = res(1: num_train_s, 1: f_)';
T_train = res(1: num_train_s, f_ + 1: end)';
M = size(P_train, 2);
P_test = res(num_train_s + 1: end, 1: f_)';
T_test = res(num_train_s + 1: end, f_ + 1: end)';
N = size(P_test, 2);
%% 数据归一化
[p_train, ps_input] = mapminmax(P_train, 0, 1);
p_test = mapminmax('apply', P_test, ps_input);
[t_train, ps_output] = mapminmax(T_train, 0, 1);
t_test = mapminmax('apply', T_test, ps_output);
%% 矩阵转置
p_train = p_train'; p_test = p_test';
t_train = t_train'; t_test = t_test';
%% 加载数据到 GBM
pv_train = lgbmDataset(p_train);
setField(pv_train, 'label', t_train);
pv_test = lgbmDataset(p_test, pv_train);
setField(pv_test, 'label', t_test);
智能算法及其模型预测