当前位置: 首页 > article >正文

深度学习|表示学习|多头注意力在计算时常见的张量维度变换总结|28

如是我闻: 以下是多头注意力(Multi-Headed Attention)在计算时常见的张量维度变换总结,帮助理解从输入到输出是如何一步步处理的。为了方便,令:

  • B B B 表示 batch size(批量大小)
  • S S S 表示 sequence length(序列长度)
  • m m m 表示 num_heads(注意力头数)
  • h h h 表示 head_size(每个头的维度)
  • d m o d e l = m × h d_{\mathrm{model}} = m \times h dmodel=m×h 表示模型隐层维度

  1. 输入(queries、keys、values)
    形状 = ( B ,   S ,   d m o d e l ) . \text{形状} = (B,\, S,\, d_{\mathrm{model}}). 形状=(B,S,dmodel).
    在「自注意力」(self-attention)场景下,三者通常是同一个张量;在「交叉注意力」(cross-attention)场景下, queries \texttt{queries} queries keys,   values \texttt{keys, values} keys, values 可能来自不同子网络。

  2. 线性映射( W Q , W K , W V W_Q, W_K, W_V WQ,WK,WV

    • queries \texttt{queries} queries 做线性变换得到 (Q):形状仍为 ( B , S , d m o d e l ) (B, S, d_{\mathrm{model}}) (B,S,dmodel)
    • keys \texttt{keys} keys 做线性变换得到 K K K:形状同上
    • values \texttt{values} values 做线性变换得到 V V V:形状同上
  3. 拆分 heads(split heads)

    • ( B , S , d m o d e l ) (B, S, d_{\mathrm{model}}) (B,S,dmodel) reshape + transpose 成 ( B , m , S , h ) (B, m, S, h) (B,m,S,h)
    • 这样每个 batch、每个序列位置上就可以拆出 m m m 个“头”,每个头维度为 h h h
    • 拆分后:
      Q , K , V   → split   ( B ,   m ,   S ,   h ) . Q, K, V ~\xrightarrow{\text{split}}~ (B,\, m,\, S,\, h). Q,K,V split  (B,m,S,h).
  4. 计算注意力分数(scores)

    • 使用 scaled dot-product:
      scores = Q × K T h 形状 = ( B ,   m ,   S ,   S ) . \text{scores} = \frac{Q \times K^T}{\sqrt{h}} \quad\text{形状} = (B,\, m,\, S,\, S). scores=h Q×KT形状=(B,m,S,S).
    • 此时会应用「下三角 mask」(causal mask)以保证自回归:只关注「过去和当前」位置,屏蔽「未来」位置。
    • scores \text{scores} scores s o f t m a x \mathrm{softmax} softmax 得到注意力权重 a t t n _ w e i g h t s \mathrm{attn\_weights} attn_weights
  5. 加权求和(attended values)
    attended_values = a t t n _ w e i g h t s × V , 形状 = ( B ,   m ,   S ,   h ) . \text{attended\_values} = \mathrm{attn\_weights} \times V, \quad \text{形状} = (B,\, m,\, S,\, h). attended_values=attn_weights×V,形状=(B,m,S,h).
    这样就得到每个 head 对原值向量的加权结果。

  6. 合并 heads(merge heads)

    • ( B , m , S , h ) (B, m, S, h) (B,m,S,h) 还原到 ( B , S , m × h ) (B, S, m \times h) (B,S,m×h),即 ( B , S , d m o d e l ) (B, S, d_{\mathrm{model}}) (B,S,dmodel)
    • 合并之后,相当于将所有 head 的信息拼接到最后一个维度上。
  7. 可选的最终线性映射 W O \mathbf{W}_O WO

    • 多数实现会继续用一个线性层 W O \mathbf{W}_O WO(同样是 ( d m o d e l , d m o d e l ) (d_{\mathrm{model}}, d_{\mathrm{model}}) (dmodel,dmodel))把拼接后的多头输出再次投影,形状保持 ( B , S , d m o d e l ) (B, S, d_{\mathrm{model}}) (B,S,dmodel)

通过以上步骤,多头注意力便可将序列的上下文信息捕获到不同的 head(不同的子空间),再合并形成新的隐层表示。

cao!

原文地址:https://blog.csdn.net/weixin_50907960/article/details/146515905
本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.kler.cn/a/613520.html

相关文章:

  • 大模型LLMs框架Langchain之工具Tools
  • C语言:第08天笔记
  • Selenium测试框架快速搭建
  • Go语言手动内存对齐的四大场景与实践指南
  • 语音机器人与智能体结合
  • 软考中级-软件设计师 23种设计模式(内含详细解析)
  • 软件性能测试中的“假阳性”陷阱
  • 基于Hbuilder X的uni-app连接OneNET云平台及AI交互 实战指南(三)——命令下发
  • Flutter 2025生态全景:从跨端到嵌入式开发的新机遇
  • 基于数据挖掘的网络入侵检测关键技术研究
  • week2|机器学习(吴恩达)学习笔记
  • DexGrasp Anything:具有物理-觉察的普遍机器人灵巧抓取
  • Python新手练习——五子棋
  • 【3.31-4.6学习周报】
  • position embedding
  • 近场探头的选型
  • uni-app自动升级功能
  • 5.0 WPF的基础介绍1-Grid,Stack,button
  • 如何编写单元测试
  • jenkins批量复制视图项目到新的视图