当前位置: 首页 > article >正文

1-1 MATLAB深度极限学习机

本博客来源于CSDN机器鱼,未同意任何人转载。

更多内容,欢迎点击本专栏目录,查看更多内容。

参考[1]魏洁.深度极限学习机的研究与应用[D].太原理工大学[2023-10-14].DOI:CNKI:CDMD:2.1016.714596.

目录

0.引言       

1.ELM-AE实现

2.DELM实现

3.主程序

4.结尾


0.引言       

深度极限学习机(DELM)目前主要含两种基本结构:1、利用传统深度学习框架(主要是堆栈自动编码器,或者是深度置信网络)进行数据的深度自适应特征提取,而后将获得的特征输入至极限学习机及其变种中进行分类或回归;2、利用极限学习机与自动编码器相结合,形成极限学习机-自动编码器(ELM-AE),结构如图1所示。原理很简单:

H=f(wx+b), x=H\beta

f是隐含层激活函数;w是输入层权重,随机值;b是隐含层偏置也是随机值,β是我们要求的值,也就是输出层权重,直接利用最小二乘法得到:

\beta =(H^{t}H)^{-1}H^{t}x

图1 极限学习机-自动编码器结构
图1 极限学习机-自动编码器结构

将ELM-AE作为无监督学习的基础单元对输入数据进行贪婪逐层无监督预训练,并保存ELM-AE由最小二乘法获得的输出权值矩阵,然后用这些输出层权重来初始化多层极限学习机(ML-ELM,也称深度极限学习机,Deep extreme leaning machine,DELM),最后结合标签信息对DELM的输出层权重进行学习,结果图2所示。

图2 深度极限学习机结构

具体操作就是先用输入x构建第一个ELM-AE,得到H1与β1,然后输入H1构建第二个ELM-AE,得到H2与β2......,这样就能得到一堆β,构建的多隐含层DELM,DELM的输出就是:

y=\beta_{n}^{-1}\beta_{n-1}^{-1}...\beta_{1}^{-1}wx

最后再次基于最小二乘法反向计算w,就能得到所有的权重。

1.ELM-AE实现

前面提到过ELM-AE就是极限学习机,只不过输入=输出,初始化方式与一般的极限学习机的区别是,权重为正交随机值,其实直接用rand或者randn效果都差不多,效果好不好完全看运气,初始化如下:

function elmae = delmsetup(opts, x)
    [r,n] = size(x);
    elmae.sizes = [n, opts.sizes];

    for u = 1 : numel(elmae.sizes) - 1
        mu=rand;
        b=log(1+exp(0.1*rand));
        if elmae.sizes(u)>=elmae.sizes(u+1)
            elmae.elmae{u}.IW =orth(mu+b*rand(elmae.sizes(u),elmae.sizes(u+1)));%根据文献 将输入权值赋值到-1,1
        else
            IW =(mu+b*rand(elmae.sizes(u),elmae.sizes(u+1)))';
            elmae.elmae{u}.IW=orth(IW)';
        end
        B = orth(rand(elmae.sizes(u+1),1));
        BiasMatrix = repmat(B,1,r)';
        elmae.elmae{u}.b=BiasMatrix;
        elmae.elmae{u}.beta=rand(elmae.sizes(u+1),elmae.sizes(u));
    end
end

程序我是一次性建立多个ELM-AE,然后保存在一个结构体里,接着用就是训练代码,加入了正则化参数,使得原来的更新公式,如下,C是提前定义的,对训练结果有影响

\beta =(H^{t}H+1/C)^{-1}H^{t}x

function elmae=ELMAEtrain(elmae,opt,P)
% 极限学习机-自动编码器的训练  输入=输出
%INPUT     N:隐含层节点数
%          P:输入数据
%          lambda:L2正则化系数
%          TF:激活函数种类
%OUTPUT    beta:输出权值
N=size(elmae.IW,2);
tempH = P*elmae.IW+elmae.b;
switch opt.TF  %激活函数
    case 'sig'
        H = 1 ./ (1 + exp(-tempH));
    case 'sin'
        H = sin(tempH);
    case 'hardlim'
        H = hardlim(tempH);
end
elmae.beta = (pinv((H'*H+eye(N)/opt.lambda)')*H')*P;

2.DELM实现

先利用前面训练得到的beta求解倒数第二层隐含层的输出,然后继续最小二乘法计算最后一层的取种

function delm=delmtrain(elmae,opts,P_train,T_train)
% ELM-AE无监督训练
for u = 1 : numel(opts.sizes)
    u;
    elmae.elmae{u} = ELMAEtrain(elmae.elmae{u},opts,P_train);
    delm.elmae{u}=pinv(elmae.elmae{u}.beta);
    P_train=P_train*delm.elmae{u};
end
% 分类或回归层的监督训练
weight=top_ELMtrain(P_train,T_train,opts);
delm.output=weight;

function [beta]=top_ELMtrain(P,T,opt)
%INPUT    
%          P:输入数据
%          T:输入数据标签
%          lambda:L2正则化系数
%OUTPUT    beta:输出权值
N =size(P,2);
beta = pinv((P'*P+eye(N)/opt.lambda)')*P'*T;

end

预测或者推理的时候,就直接用前面依次计算的beta与最后一层的beta求解

function output=delmpredict(delm,P)

num_hidden=numel(delm.elmae);
for i=1:num_hidden
    P=P*delm.elmae{i};
end

output=P*delm.output;

3.主程序

%% DELM分类
%% 清空环境
close all;clear;format compact;format short;clc
%%
load data_feature_fft
%原始数据是一行一个样本,因此计算归一化的时候先做转置
[train_x,train_ps]=mapminmax(train_X',-1,1);
test_x=mapminmax('apply',test_X',train_ps);
%我写的delm的输入输出都是一列一个样本,需要对原始数据转换一下
P_train = double(train_x)' ;
P_test  = double(test_x)' ;
T_train = double(train_Y);
T_test  = double(test_Y);

%% 参数设置
opts.lambda=inf;%正则化系数,无穷就是不用正则化
opts.TF='sig';%激活函数
opts.sizes=[30 20];%几个数就是几个隐含层,n个隐含层各自的节点就是[n1;n2;n3;n4;....nn]
%% 初始化网络权重
elmae=delmsetup(opts,P_train);
%% 训练
delm=delmtrain(elmae,opts,P_train,T_train);
%% 测试;
T2=delmpredict(delm,P_test);
%% 正确率计算
[~,J1]=max(T2,[],2);%预测标签
[~,J2]=max(T_test,[],2);%实际标签
accuracy=sum(J1==J2)/length(J1)
figure
stem(J1)
hold on
plot(J2,'*')
legend('预测标签','真实标签')

 这个代码即可用来预测,也可用来分类,分类的时候输出值就是onehot编码,比如一共3类,第一类的标签是1 0 0,第二类的标签是0 1 0;用作回归的时候,就是具体的值。

4.结尾

由于各个elm-ae的权重都是随机生成的,效果直接影响最后的准确性,下一章我们来讲解怎么操作利用优化算法来优化权重


http://www.kler.cn/a/593213.html

相关文章:

  • Mac:JMeter 下载+安装+环境配置(图文详细讲解)
  • C#命令行参数用法
  • Python-docx库详解:轻松实现Word文档自动化生成与图片尺寸控制
  • 组播实验--IGMP、IGMP Snooping 及 PIM-DM 协议
  • 大语言模型(LLM)解析:从 GPT 到 DeepSeek(Transformer 结构、主流 LLM 的对比)
  • 在 STM32 的程序中,HAL_UART_Receive_IT 的调用位置
  • 以太坊节点间通信机制 DEVp2p 协议
  • DevEco Studio的使用
  • Unity 运行报错:InvalidOperationException: Insecure connection not allowed 的原因
  • 让 Google Play 成为助力 PC 游戏增长的最佳平台
  • k8s 配置imagePullSecrets仓库认证
  • 国思RDIF低代码快速开发框架 v6.2版本发布
  • 第14周-Seq2Seq模型-NLP
  • 堆排序的思路与常见的问题
  • 今日bug
  • P1118 [USACO06FEB] Backward Digit Sums G/S
  • Tailwind CSS 学习笔记(二)
  • IDEA的常用设置与工具集成
  • 高性能Java并发编程:线程池与异步编程最佳实践
  • 批处理脚本编译vs工程