当前位置: 首页 > article >正文

轻量级+鲸鱼优化!WOA-LightGBM鲸鱼优化算法优化轻量级梯度提升机分类预测Matlab实现

轻量级+鲸鱼优化!WOA-LightGBM鲸鱼优化算法优化轻量级梯度提升机分类预测Matlab实现

目录

    • 轻量级+鲸鱼优化!WOA-LightGBM鲸鱼优化算法优化轻量级梯度提升机分类预测Matlab实现
      • 分类效果
      • 基本描述
      • 程序设计
      • 参考资料

分类效果

在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
未优化运行效果
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述

基本描述

1.Matlab实现WOA-LightGBM鲸鱼优化算法优化轻量级梯度提升机分类预测,附带未优化模型,可以作为对比实验(完整源码和数据)
2.优化参数为叶子节点数 学习率 树的深度;
3.直接替换数据即可使用,保证程序可正常运行;
4.程序语言为matlab,程序可出分类效果图,迭代优化图,混淆矩阵图,评价指标含Precision、Recal、F1 Score、Kappa1 Score;
运行主程序mian即可,运行环境matlab2020b及以上;
5.代码特点:参数化编程、参数可方便更改、代码编程思路清晰、注释明细。
(Light Gradient Boosting Machine)是一款基于决策树算法的分布式梯度提升框架。为了满足工业界缩短模型计算时间的需求,LightGBM的设计思路主要是两点:减小数据对内存的使用,保证单个机器在不牺牲速度的情况下,尽可能地用上更多的数据;减小通信的代价,提升多机并行时的效率,实现在计算上的线性加速。
注:程序和数据放在一个文件夹
在这里插入图片描述
在这里插入图片描述

程序设计

  • 完整代码私信博主回复轻量级+鲸鱼优化!WOA-LightGBM鲸鱼优化算法优化轻量级梯度提升机分类预测Matlab实现


%%  清空环境变量
warning off             % 关闭报警信息
close all               % 关闭开启的图窗
clear                   % 清空变量
clc                     % 清空命令行

%%  读取数据
res = xlsread('data.xlsx');

%%  分析数据
num_class = length(unique(res(:, end)));  % 类别数(Excel最后一列放类别)
num_dim = size(res, 2) - 1;               % 特征维度
num_res = size(res, 1);                   % 样本数(每一行,是一个样本)
num_size = 0.7;                           % 训练集占数据集的比例
res = res(randperm(num_res), :);          % 打乱数据集(不打乱数据时,注释该行)
flag_conusion = 1;                        % 标志位为1,打开混淆矩阵(要求2018版本及以上)

%%  设置变量存储数据
P_train = []; P_test = [];
T_train = []; T_test = [];

%%  划分数据集
for i = 1 : num_class
    mid_res = res((res(:, end) == i), :);           % 循环取出不同类别的样本
    mid_size = size(mid_res, 1);                    % 得到不同类别样本个数
    mid_tiran = round(num_size * mid_size);         % 得到该类别的训练样本个数

         
end
%%  清空环境变量
warning off             % 关闭报警信息
close all               % 关闭开启的图窗
clear                   % 清空变量
clc                     % 清空命令行

%% 添加工具箱路径 加载工具箱
addpath("toolbox\") 
loadlibrary('lib_lightgbm.dll', 'c_api.h')

%%  导入数据
res = xlsread('数据集.xlsx');               % 四个类别分别用0 1 2 3表示
rand('state',0);

%%  数据分析
num_size = 0.7;                              % 训练集占数据集比例 
outdim = 1;                                  % 最后一列为输出
num_class = length(unique(res(:,end)));      % 计算类别数 
num_samples = size(res, 1);                  % 样本个数
res = res(randperm(num_samples), :);         % 打乱数据集(不希望打乱时,注释该行)
num_train_s = round(num_size * num_samples); % 训练集样本个数
f_ = size(res, 2) - outdim;                  % 输入特征维度

%%  划分训练集和测试集
P_train = res(1: num_train_s, 1: f_)';
T_train = res(1: num_train_s, f_ + 1: end)';
M = size(P_train, 2);

P_test = res(num_train_s + 1: end, 1: f_)';
T_test = res(num_train_s + 1: end, f_ + 1: end)';
N = size(P_test, 2);

%%  数据归一化
[P_train, ps_input] = mapminmax(P_train, 0, 1);
P_test = mapminmax('apply', P_test, ps_input);

%%  矩阵转置
p_train = P_train'; p_test = P_test';
t_train = T_train'; t_test = T_test';

%%  加载数据到 GBM
pv_train = lgbmDataset(p_train);
setField(pv_train, 'label', t_train);

pv_test = lgbmDataset(p_test, pv_train);
setField(pv_test, 'label', t_test);

%% 寻优参数设置
fun = @getObjValue;                 % 目标函数
dim = 3;                            % 优化参数个数
lb = [8, 0.1,2];                    % 优化参数目标下限[叶子节点数 学习率 树的深度]
ub = [64, 1,10];                    % 优化参数目标上限[叶子节点数 学习率 树的深度]
pop = 2;                            % 搜索数量
Max_iteration = 10;                 % 优化算法最大迭代次数  一共搜索次数:优化算法最大迭代次数*搜索数量



%%  参数设置
%%  数据反归一化
T_sim1 = vec2ind(t_sim1);
T_sim2 = vec2ind(t_sim2);

% %%  数据排序
% [T_train, index_1] = sort(T_train);
% [T_test , index_2] = sort(T_test );
% 
% T_sim1 = T_sim1(index_1);
% T_sim2 = T_sim2(index_2);

%%  性能评价
error1 = sum((T_sim1 == T_train))/M * 100 ;
error2 = sum((T_sim2 == T_test)) /N * 100 ;

%%  绘图
figure()         
legend('真实值', '预测值')
xlabel('预测样本')
ylabel('预测结果')
string = {'训练集预测结果对比'; ['准确率=' num2str(error1) '%']};
title(string)
xlim([1, M])
grid


figure
legend('真实值', '预测值')
xlabel('预测样本')
ylabel('预测结果')
string = {'测试集预测结果对比'; ['准确率=' num2str(error2) '%']};
title(string)
xlim([1, N])
grid

%%  混淆矩阵
figure
cm = confusionchart(T_train, T_sim1);
cm.Title = 'Confusion Matrix for Train Data';
cm.ColumnSummary = 'column-normalized';
cm.RowSummary = 'row-normalized';
    
figure
cm = confusionchart(T_test, T_sim2);
cm.Title = 'Confusion Matrix for Test Data';
cm.ColumnSummary = 'column-normalized';
cm.RowSummary = 'row-normalized';

参考资料

[1] https://blog.csdn.net/kjm13182345320/article/details/129036772?spm=1001.2014.3001.5502
[2] https://blog.csdn.net/kjm13182345320/article/details/128690229


http://www.kler.cn/a/443768.html

相关文章:

  • 接口测试Day-02-安装postman项目推送Gitee仓库
  • 腾讯云智能结构化OCR:以多模态大模型技术为核心,推动跨行业高效精准的文档处理与数据提取新时代
  • linux springboot项目启动端口被占用 Port 8901 was already in use.
  • Kali操作系统简单介绍
  • 搜索召回概要
  • K8s 节点 NotReady 后 Pod的变化
  • 计算机网络基础--WebSocket
  • 使用C语言连接MySQL
  • 7. 检查是否存在满足条件的数字组合
  • jmeter中的prev对象
  • [机器学习]XGBoost(4)——系统设计(含代码实战)
  • 如何远程登录路由器
  • Nautilus源码编译傻瓜式教程二
  • 《类和对象:基础原理全解析(上篇)》
  • finereport新的数据工厂插件
  • Spring 启动流程!!!
  • 分布式光伏电站气象站
  • 每天40分玩转Django:Django缓存视图
  • 98. 验证二叉搜索树(java)
  • Android app反编译 攻与防
  • 在Windows Server路由和远程访问服务中启用L2TP/IPsec VPN
  • 实现路由懒加载的方式有哪些?
  • git配置以及替换gerrit默认commit-msg hook~转
  • armsom产品Debian系统开发
  • 打造基于 SSM 和 Vue 的卓越电脑测评系统:挖掘电脑潜力
  • 【网络安全】【Kali Linux】简单ICMP主机探测