当前位置: 首页 > article >正文

LORA的AB矩阵是针对Transformer的多头还是MLP

LORA的AB矩阵是针对Transformer的多头还是MLP

Transformer中的矩阵是一个整体还是分开的每个小矩阵

在LORA(Low-Rank Adaptation)中,AB矩阵的应用位置和Transformer中的矩阵拆分方式如下:

1. LORA的AB矩阵作用对象

LORA的AB矩阵主要作用于Transformer的多头注意力模块MLP模块的线性层。具体来说:

  • 多头注意力部分:AB矩阵通常注入到查询(Q)、键(K)、值(V)的线性变换层中,以低秩分解的形式近似原始权重矩阵。
  • MLP部分:AB矩阵也可注入到MLP的**输入层(将隐层维度映射到中间维度)输出层(映射回隐层维度)**中。

http://www.kler.cn/a/593138.html

相关文章:

  • 如何在 Vue.js 中优化大型列表的渲染
  • Python的openpyxl库读取excel文件(1)
  • 论文分享:PL-ALF框架实现无人机低纹理环境自主飞行
  • docker安装rabbitmq并配置hyperf使用
  • oracle创建磁盘组的时候,无法发现asm磁盘
  • Vue3 组件通信 v-model 封装组件 组件源码 v-model原理
  • Qt-D指针与Q指针的设计哲学
  • $set 方法废弃
  • HTTP核心知识
  • 以太网 MAC 帧格式
  • 如何在前端发版时实现向客户端推送版本更新消息
  • Flutter中Align的使用说明
  • 【论文阅读】MMed-RAG:让多模态大模型告别“事实性幻觉”​
  • docker pull 提示timeout
  • 在线 SQL 转 Python ORM工具
  • 【从零开始学习计算机科学】算法分析(二)排序算法 与 分治法
  • Python与Web 3.0:重新定义数字身份验证的未来
  • C# HTTP认证方式详解与代码实现
  • 日常用命令
  • SAP的WPS导出找不到路径怎么办;上载报错怎么办