当前位置: 首页 > article >正文

论文解读(21)- RNN,LSTM,GRU

这次是来好好系统回顾一下这些经典的模型算法

参考:
人人都能看懂的LSTM - 知乎
史上最详细循环神经网络讲解(RNN/LSTM/GRU) - 知乎
LSTM从入门到精通(形象的图解,详细的代码和注释,完美的数学推导过程)_lstm模型-CSDN博客

1. RNN

循环神经网络(Recurrent Neural Network,RNN)是一种用于处理序列数据的神经网络。
(比如,理解单词在句子中的上下文)

在这里插入图片描述

在这里插入图片描述

在这里插入图片描述

  • 相当于存在了一个会变化的状态
    在这里插入图片描述

主要缺点:
1)长期依赖问题导致的梯度消失:如果我们的句子很长,他在第1000个记忆细胞还能记住并很好的利用第1个细胞的记忆状态吗?答案显然是否定的
2)梯度爆炸:
推导公式:
在这里插入图片描述

在这里插入图片描述

在这里插入图片描述

  • L是损失
    (真的很详细,建议回头手推一次)

2. LSTM

  • 长短期记忆(Long short-term memory, LSTM)是一种特殊的RNN,主要是为了解决长序列训练过程中的梯度消失和梯度爆炸问题。
  • 就是在长序列上有更好的表现
    在这里插入图片描述

LSTM有了Memory Cell和Forget Gate:
在这里插入图片描述

三个门:

  1. Input Gate:中文是输入门,在每一时刻从输入层输入的信息会首先经过输入门,输入门的开关会决定这一时刻是否会有信息输入到Memory Cell。
  2. Output Gate:中文是输出门,每一时刻是否有信息从Memory Cell输出取决于这一道门。
  3. Forget Gate:中文是遗忘门,每一时刻Memory Cell里的值都会经历一个是否被遗忘的过程,就是由该门控制的,如果打卡,那么将会把Memory Cell里的值清除,也就是遗忘掉。

3. GRU

推荐视频:
【重温经典】GRU循环神经网络 —— LSTM的轻量级版本,大白话讲解_哔哩哔哩_bilibili

在这里插入图片描述

具有了记忆和遗忘的功能

优点:参数量少

在这里插入图片描述


http://www.kler.cn/a/388933.html

相关文章:

  • 计算机网络(3)网络拓扑和IP地址,MAC地址,端口地址详解
  • 车载空气净化器语音芯片方案
  • FatLab:我的编程课程系列
  • 矢量拟合(1)Sanathanan–Koerner算法
  • 使用 Flask 和 ONLYOFFICE 实现文档在线编辑功能
  • 【Mode Management】AUTOSAR架构下唤醒源检测函数EcuM_CheckWakeup详解
  • QNAP QuMagie相册使用指南
  • percona tpc-c程序压测mysql8.0并绘图
  • 数据库的挂起 提交和事务
  • 学习日记_241110_局部线性嵌入(Locally Linear Embedding, LLE)
  • Hive 查询各类型专利 top10 申请人及专利申请数
  • 20241105编译荣品的Android13并给荣品PRO-RK3566开发板刷机
  • 【网络】传输层——UDP协议
  • #渗透测试#SRC漏洞挖掘#深入挖掘CSRF漏洞01
  • 基于卷积神经网络的车辆损坏部位检测系统带gui
  • 基于ADC12DJ5200 采样率10.4GS/s的AD子卡设计方案
  • 【数学二】线性代数-向量-向量组的秩、矩阵得秩
  • Oracle EBS工具脚本
  • 科大讯飞面经,蛮简单的
  • C++数学
  • 1547. 切棍子的最小成本-cangjie
  • STM32F103C8T6学习笔记4--模拟旋转编码器的按键中断
  • 【MongoDB】MongoDB的聚合(Aggregate、Map Reduce)与管道(Pipline) 及索引详解(附详细案例)
  • 【业务】支付总结和GP支付功能测试
  • LRU缓存算法
  • Java集合框架之数组列表(ArrayList)