当前位置: 首页 > article >正文

机器学习(李宏毅)——RNN

一、前言

本文章作为学习2023年《李宏毅机器学习课程》的笔记,感谢台湾大学李宏毅教授的课程,respect!!!

二、大纲

  • 引例
  • RNN历史
  • 基本思想
  • RNN变形
  • RNN训练

三、引例

学习RNN之前先看一个例子:
假设要做一个火车订票系统(ticket booking system),给机器输入一句话“I would like to arrive Taipei on November 2nd. ”,期望机器能够自动识别“目的地”和“到达时间”,这该如何做到呢?

  • 方法:训练一个神经网络(Feedforward network ),当输入看到Taipei时候就应该输出这是地名,看到November 2nd就应该输出时间,所以地名和时间就像是这句话的插槽(slot filling)一样。

但这个方法会有一个问题,比如我输入“leave Taipei on November 2nd. ”,同一个模型同样可以识别到地点和时间,但是这句话地点则是出发地,时间是出发时间。所以我们要把上下文语义信息关联上去,于是就有了RNN,也可以理解为有记忆的神经网络模型。

四、RNN历史

RNN称为递归神经网络,发展历史如下:

  • 1980-1990 年代:RNN 的基础理论建立,但训练困难。
  • 1997 年:LSTM 诞生,解决了梯度消失问题,使 RNN 变得实用。
  • 2014-2015 年:GRU 被提出,RNN 开始大规模应用于 NLP 任务。
  • 2017 年后:Transformer 取代RNN,成为主流 NLP 解决方案。

虽然现在的主流是Transformer,但还是有必要学习下RNN的经典算法。

五、基本思想

  • 隐藏层的输出被存储在记忆里;
  • 存储的记忆看做是输入;
    实际的计算过程如下:
    在这里插入图片描述
    说明:
    假设上图神经网络所有权重都是1,没有bias,所有的激活函数都是linear的。
    RNN的基本思想就是将隐藏层的输出存在记忆中(memory)作为下一次的输入,计算过程如上gif图。
    同样的结构叠成多层,接起来变成如下的结构:
    在这里插入图片描述
    每个位置的输入都是看过上次输出的memory(起始点除外)。
    当然还可以叠多层,让其越叠越深,结构如下:
    在这里插入图片描述

六、RNN变形

1.双向RNN
Bidirectional RNN
在这里插入图片描述
双向的递归神经网络,例如输入的一个句子,使用RNN正序算一遍句子的每个位置的输出,逆序再算一遍每个位置的输出,最终双向结果拼接起来一块作为输出,这就是Bidirectional RNN。优点是考虑了双向的语义信息。

2.LSTM(Long Short-term Memory)
又名长短时记忆递归神经网络,精髓是让机器自己决定输入、记忆、输出这三件事情。

  • 输入:要不要输入;
  • 记忆:要更新记忆还是擦除记忆;
  • 输出:要不要输出。

对应起来就是控制门的思想,有三个控制门,分别是:输入门、遗忘门、输出门。如下图:
在这里插入图片描述

进一步拆解LSTM原理如下:
在这里插入图片描述

  • step1:输入一分为四,分别是z,zi,zf,zo,对应输入、输入门、遗忘门和输出门。激活函数式sigmoid,将输出的数值值域控制在0~1之间,好处就是输出是否关系;
  • step2:输入:输入z经过sigmoid函数g得到g(z);
  • step3:输入门:zi经过sigmoid函数f得到f(zi);
  • step4:将输入和输入门得到的值g(z)和f(zi)做multiply相乘得到输出g(z)f(z);
  • step5:遗忘门:zf经过sigmoid函数f得到f(zf),决定了记忆c是擦除还是保留。记忆c和f(zf)相乘再和g(z)f(z)相加得到c’。
  • step6:输出门:zo经过sigmoid函数f得到f(zo);
  • step7:最终输出:c’经过sigmoid函数h得到h(c’),然后再和f(zo)相乘得到a;

以上就是LSTM的计算原理了,下面是实际的计算过程演示:
在这里插入图片描述
用一个结构图来表达就是如下这样:
在这里插入图片描述

将多个这样的单元块接起来就会变成:
在这里插入图片描述

实做过程中还会把前一个时间点的记忆c和h输出当做下一次的输入,改写成:
在这里插入图片描述
更多层的接起来就像是下图这样:
在这里插入图片描述
看着虽然复杂,但基本的思想还是比较简单直接。

七、RNN训练

RNN的训练并非是容易的事情,虽然用的还是Backpropagation through time (BPTT)和Gradient Decent。

  • Backpropagation through time (BPTT) 进阶版的反向传播方法
  • Gradient Decent 梯度下降方法

实做过程中,RNN训练loss曲线比较崎岖震荡,如下图:
在这里插入图片描述
形象在图上表达就是悬崖峭壁,如果一脚踩在悬崖,一脚踩在谷底,直接飞了,也就是梯度爆炸的现象。
在这里插入图片描述
那如何解决呢?
有一招说穿不值钱,就是clipping,碰到悬崖的壁时候就不要乱蹦跶了,该参数就不要再更新乱动了,以免梯度爆炸。

举个例子,进一步形象说明一下:
在这里插入图片描述
已知条件:输入为[1 0 0 … 0],权重都设为1,memory为w,有考虑的memory的最后的输出就是w999
假设情况
情况1:
1、如果w=1,y1000 = w999=1。
2、改变一点点的话,如果w=1.01,y1000 = w999≈20000。
这种情况就是变量只改变了一丢丢,梯度却是改变了相当大,说明这里相当崎岖,极端下对应的就是上图悬崖情况,也就是梯度爆炸,当然这里不一定爆炸。

情况2:
1、如果w=0.99,y1000 = w999≈0。
2、如果w=0.01,y1000 = w999≈0。
这种情况说明这里是个非常平坦的地方,对应悬崖底下的平原地区,基本上自变量改变梯度还是趋近于零,这种现象也称为梯度消失。

以上例子辅助理解梯度爆炸和梯度消失情况,这也是RNN训练遇到的困难。

然而,上述的LSTM是可以解决梯度消失问题,它的做法是让error face都变得崎岖,但是解决不了梯度爆炸问题。

通俗讲:普通 RNN 就像黑板,写了一会儿就被覆盖,信息很快消失。而 LSTM 让信息流经过“笔记本”存储,并且通过“橡皮擦”和“高亮笔”合理管理信息,确保真正重要的东西可以长期保留,从而避免了梯度消失的问题。


http://www.kler.cn/a/552225.html

相关文章:

  • 搭建一个 Spring Boot 项目,解决jdk与springboot版本不匹配
  • vue3中reactive的对象清空,所引发的问题:清空不了和清空之后再去赋值就赋值不了为什么
  • 年前集训总结python
  • 玩客云 IP查找
  • Gateway中的Filter机制
  • 解锁养生秘籍,拥抱健康生活
  • 【Scrapy】Scrapy教程6——提取数据
  • 【强化学习入门笔记】3.3 Actor-Critic方法: QAC,A2C
  • 使用IDEA创建Maven项目、Maven坐标,以及导入Maven项目
  • (新版本onenet)stm32+esp8266/01s mqtt连接onenet上报温湿度和远程控制(含小程序)
  • 【原创】在ubuntu中搭建gradle开发环境
  • 开源Odoo设备智慧运维系统在纺织机械行业的实施方案 ——基于Odoo设备模块、SKF Phoenix API与IMAX-8数采网关的深度集成
  • com.typesafe.config
  • 部署postgresql_exporter监控pgsql
  • 利用acme.sh 申请 Google 免费证书
  • 三种安全协议 IPSec SSL PGP
  • 【二分搜索题目】
  • [代码调试]安装Text2Image(stable diffusion)模型环境的踩坑记录
  • 【Go | 从0实现简单分布式缓存】-2:HTTP服务端与一致性哈希
  • cv2库的使用及图像预处理02