当前位置: 首页 > article >正文

「深度学习」门控循环单元GRU

一、梯度消失问题

  • 梯度消失

    基础的 RNN 模型不善于处理长期依赖关系,有很多局部影响,很难调整自己前面的计算。y^{<i>} 仅仅受自己附近的值影响。

  • 解决方法:GRU 或 LSTM

  • 梯度爆炸

    反向传播时,随着层数增多,梯度不仅可能指数型下降,还有可能指数型上升 —— 会导致参数过大,网络崩溃

    解决方法:梯度修剪 —— 观察梯度向量,若大于某个阈值,则放缩梯度向量,保证其不会过大

二、GRU

目的:使隐藏层更好地捕捉深层连接,改善梯度消失的问题

1. RNN 单元

2. 简化版 GRU 单元

c = memory \space cell

c^{<t>} = a^{<t>}​​

  • c^{<t>} 的候选值:\widetilde{c}^{<t>} = tanh(w_{c}[c^{<t-1>},x^{<t>}]+b_{c})
  • 核心思想 "门" - 决定什么时候更新:\Gamma_{u} = \sigma(w_{u}[c^{<t-1>},x^{<t>}]+b_{u})

    u:“update”

    \Gamma_{u}​ 介于0到1之间,大多数情况下非常接近0或1

    sigmoid 激活函数:

  • 关键部分:c^{<t>} = \Gamma_{u}*\widetilde{c}^{<t>} + (1-\Gamma_{u})*\widetilde{c}^{<t-1>}​

    \Gamma_{u} = 1:将 c^{<t>}​​ 更新为候选值

    \Gamma_{u} = 0:保留原来的值

优点:若 \Gamma_{u} 接近0,c^{<t>}几乎等于c^{<t-1>},即使经过了很多层,c^{<t>}的值依然会被保留,故可以缓和梯度下降带来的问题。

c^{<t>} 可以是向量,用不同的bit去记忆不同的单词。

3. 完整版 GRU

\widetilde{c}^{<t>} = tanh(w_{c}[\Gamma_{r}*c^{<t-1>},x^{<t>}]+b_{c})

\Gamma_{u} = \sigma(w_{u}[c^{<t-1>},x^{<t>}]+b_{u})

  • \Gamma_{r} = \sigma(w_{r}[c^{},x^{}]+b_{u})

         r:"relevance"

         表示计算出的 \widetilde{c}^{<t>} 与 c^{<t-1>} 有多大的相关性

c^{<t>} = \Gamma_{u}*\widetilde{c}^{<t>} + (1-\Gamma_{u})*\widetilde{c}^{<t-1>}​

a^{<t>} = c^{<t>}


http://www.kler.cn/a/229351.html

相关文章:

  • 79_Redis通信协议RESP
  • Gitee图形界面上传(详细步骤)
  • --- 多线程编程 基本用法 java ---
  • Java 锁
  • 1. npm 常用命令详解
  • 软件测试 —— Selenium常用函数
  • 070:vue+cesium: 利用canvas设置线性渐变色材质
  • 【Rust】——rust前言与安装rust
  • [晓理紫]每日论文分享(有中文摘要,源码或项目地址)
  • thinkphp6入门(19)-- 中间件向控制器传参
  • 鸿蒙 WiFi 扫描流程(2)
  • 《爬虫职海录》卷二 • 爬在广州
  • 2024.1.26力扣每日一题——边权重均等查询
  • 游戏后端如何实现服务器之间的负载均衡?
  • MySQL-运维篇-日志
  • 京东物流基于 StarRocks 的数据分析平台建设
  • Linux实验记录:使用BIND提供域名解析服务
  • 学习并用好大模型
  • 大型语言模型(LLM)的优势、劣势和风险
  • C语言-4
  • 【机器学习与自然语言处理】预训练 Pre-Training 各种经典方法的概念汇总
  • css浮动
  • Spring Boot项目整合Seata AT模式
  • Python OpenCV实现图片像素区域缩放
  • 2.4-学成在线内容管理之项目实战
  • MES生产执行管理