轻量级+鲸鱼优化!WOA-LightGBM鲸鱼优化算法优化轻量级梯度提升机分类预测Matlab实现
轻量级+鲸鱼优化!WOA-LightGBM鲸鱼优化算法优化轻量级梯度提升机分类预测Matlab实现
目录
- 轻量级+鲸鱼优化!WOA-LightGBM鲸鱼优化算法优化轻量级梯度提升机分类预测Matlab实现
- 分类效果
- 基本描述
- 程序设计
- 参考资料
分类效果
未优化运行效果
基本描述
1.Matlab实现WOA-LightGBM鲸鱼优化算法优化轻量级梯度提升机分类预测,附带未优化模型,可以作为对比实验(完整源码和数据)
2.优化参数为叶子节点数 学习率 树的深度;
3.直接替换数据即可使用,保证程序可正常运行;
4.程序语言为matlab,程序可出分类效果图,迭代优化图,混淆矩阵图,评价指标含Precision、Recal、F1 Score、Kappa1 Score;
运行主程序mian即可,运行环境matlab2020b及以上;
5.代码特点:参数化编程、参数可方便更改、代码编程思路清晰、注释明细。
(Light Gradient Boosting Machine)是一款基于决策树算法的分布式梯度提升框架。为了满足工业界缩短模型计算时间的需求,LightGBM的设计思路主要是两点:减小数据对内存的使用,保证单个机器在不牺牲速度的情况下,尽可能地用上更多的数据;减小通信的代价,提升多机并行时的效率,实现在计算上的线性加速。
注:程序和数据放在一个文件夹
程序设计
- 完整代码私信博主回复轻量级+鲸鱼优化!WOA-LightGBM鲸鱼优化算法优化轻量级梯度提升机分类预测Matlab实现
%% 清空环境变量
warning off % 关闭报警信息
close all % 关闭开启的图窗
clear % 清空变量
clc % 清空命令行
%% 读取数据
res = xlsread('data.xlsx');
%% 分析数据
num_class = length(unique(res(:, end))); % 类别数(Excel最后一列放类别)
num_dim = size(res, 2) - 1; % 特征维度
num_res = size(res, 1); % 样本数(每一行,是一个样本)
num_size = 0.7; % 训练集占数据集的比例
res = res(randperm(num_res), :); % 打乱数据集(不打乱数据时,注释该行)
flag_conusion = 1; % 标志位为1,打开混淆矩阵(要求2018版本及以上)
%% 设置变量存储数据
P_train = []; P_test = [];
T_train = []; T_test = [];
%% 划分数据集
for i = 1 : num_class
mid_res = res((res(:, end) == i), :); % 循环取出不同类别的样本
mid_size = size(mid_res, 1); % 得到不同类别样本个数
mid_tiran = round(num_size * mid_size); % 得到该类别的训练样本个数
end
%% 清空环境变量
warning off % 关闭报警信息
close all % 关闭开启的图窗
clear % 清空变量
clc % 清空命令行
%% 添加工具箱路径 加载工具箱
addpath("toolbox\")
loadlibrary('lib_lightgbm.dll', 'c_api.h')
%% 导入数据
res = xlsread('数据集.xlsx'); % 四个类别分别用0 1 2 3表示
rand('state',0);
%% 数据分析
num_size = 0.7; % 训练集占数据集比例
outdim = 1; % 最后一列为输出
num_class = length(unique(res(:,end))); % 计算类别数
num_samples = size(res, 1); % 样本个数
res = res(randperm(num_samples), :); % 打乱数据集(不希望打乱时,注释该行)
num_train_s = round(num_size * num_samples); % 训练集样本个数
f_ = size(res, 2) - outdim; % 输入特征维度
%% 划分训练集和测试集
P_train = res(1: num_train_s, 1: f_)';
T_train = res(1: num_train_s, f_ + 1: end)';
M = size(P_train, 2);
P_test = res(num_train_s + 1: end, 1: f_)';
T_test = res(num_train_s + 1: end, f_ + 1: end)';
N = size(P_test, 2);
%% 数据归一化
[P_train, ps_input] = mapminmax(P_train, 0, 1);
P_test = mapminmax('apply', P_test, ps_input);
%% 矩阵转置
p_train = P_train'; p_test = P_test';
t_train = T_train'; t_test = T_test';
%% 加载数据到 GBM
pv_train = lgbmDataset(p_train);
setField(pv_train, 'label', t_train);
pv_test = lgbmDataset(p_test, pv_train);
setField(pv_test, 'label', t_test);
%% 寻优参数设置
fun = @getObjValue; % 目标函数
dim = 3; % 优化参数个数
lb = [8, 0.1,2]; % 优化参数目标下限[叶子节点数 学习率 树的深度]
ub = [64, 1,10]; % 优化参数目标上限[叶子节点数 学习率 树的深度]
pop = 2; % 搜索数量
Max_iteration = 10; % 优化算法最大迭代次数 一共搜索次数:优化算法最大迭代次数*搜索数量
%% 参数设置
%% 数据反归一化
T_sim1 = vec2ind(t_sim1);
T_sim2 = vec2ind(t_sim2);
% %% 数据排序
% [T_train, index_1] = sort(T_train);
% [T_test , index_2] = sort(T_test );
%
% T_sim1 = T_sim1(index_1);
% T_sim2 = T_sim2(index_2);
%% 性能评价
error1 = sum((T_sim1 == T_train))/M * 100 ;
error2 = sum((T_sim2 == T_test)) /N * 100 ;
%% 绘图
figure()
legend('真实值', '预测值')
xlabel('预测样本')
ylabel('预测结果')
string = {'训练集预测结果对比'; ['准确率=' num2str(error1) '%']};
title(string)
xlim([1, M])
grid
figure
legend('真实值', '预测值')
xlabel('预测样本')
ylabel('预测结果')
string = {'测试集预测结果对比'; ['准确率=' num2str(error2) '%']};
title(string)
xlim([1, N])
grid
%% 混淆矩阵
figure
cm = confusionchart(T_train, T_sim1);
cm.Title = 'Confusion Matrix for Train Data';
cm.ColumnSummary = 'column-normalized';
cm.RowSummary = 'row-normalized';
figure
cm = confusionchart(T_test, T_sim2);
cm.Title = 'Confusion Matrix for Test Data';
cm.ColumnSummary = 'column-normalized';
cm.RowSummary = 'row-normalized';
参考资料
[1] https://blog.csdn.net/kjm13182345320/article/details/129036772?spm=1001.2014.3001.5502
[2] https://blog.csdn.net/kjm13182345320/article/details/128690229