当前位置: 首页 > article >正文

【NLP高频面题 - Transformer篇】Transformer编码器有哪些子层?

Transformer编码器有哪些子层?

重要性:★

Transformer 解码器由 3 个子层组成:带掩码的多头注意力层、多头注意力层、前馈网络层。

Transformer 两个解码器串联结构如图所示:

Transformer 解码器的解码有以下步骤:

(1)首先,我们将解码器的输入转换为嵌入矩阵,然后将位置编码加入其中,并将其作为输入送入底层的解码器(解码器 1)。

(2)解码器收到输入,并将其发送给带掩码的多头注意力层,生成注意力矩阵 M。

(3)然后,将注意力矩阵 M 和编码器输出的特征值 R 作为多头注意力层(编码器−解码器注意力层)的输入,并再次输出新的注意力矩阵。

(4)把从多头注意力层得到的注意力矩阵作为输入,送入前馈网络层。前馈网络层将注意力矩阵作为输入,并将解码后的特征作为输出。

(5)最后,我们把从解码器 1 得到的输出作为输入,将其送入解码器 2。

(6)解码器 2 进行同样的处理,并输出目标句的特征。


NLP 大模型高频面题汇总

NLP基础篇
BERT 模型面
LLMs 微调面

http://www.kler.cn/a/469420.html

相关文章:

  • asio中strand用于串行执行task
  • [微服务]redis主从集群搭建与优化
  • 对话|企业如何构建更完善的容器供应链安全防护体系
  • 卸载wps后word图标没有变成白纸恢复
  • github开源链游详细搭建文档
  • GoFrame 基础入门
  • 【蓝桥杯】43709.机器人繁殖
  • (初学者)STM32 MP157中LED触发器笔记
  • Go小技巧易错点100例(二十一)
  • BGP(Border Gateway Protocol)路由收集器
  • 下载word报表
  • reactor中的并发
  • Java(day3)
  • 使用JMeter对Linux生产服务器进行压力测试
  • Golang中的大端序和小端序
  • 五类推理(逻辑推理、概率推理、图推理、基于深度学习的推理)的开源库 (二)
  • 51单片机——蜂鸣器模块
  • SpringCloud源码-nacos
  • 图片验证码
  • 解锁kafka组件安全性解决方案:打造全方位安全防线
  • 解决TortoiseGit 在Windows系统中文件不显示状态图标的问题
  • Elasticsearch操作笔记版
  • HarmonyOS学习大纲
  • 2.5万字 - 用TensorFlow和PyTorch分别实现五种经典模型
  • Go语言的 的接口(Interfaces)核心知识
  • 优雅草采集器系统全面开源-优雅草YYC采集器系统不同版本的合集整体开源yyc-gather-采集器开源-优雅草央千澈