当前位置: 首页 > article >正文

使用Lora微调LLM——笔记

Lora没有真正地“调”预训练的参数,而是增加了一个低秩矩阵。

思路:
LLM的预训练模型的权重很可能是满秩的,这代表几乎全部的权重都是有意义的。
Lora的目的就是用更少的权重(低秩的表达),来近似的代替原始的预训练满秩参数。(类似于PCA)

实现方案;


代码实现:
 

input_dim = 768 # 例如,预训练模型的隐藏大小
output_dim = 768 # 例如,层的输出大小
rank = 8 # 低秩适应的等级'r'
W = ... # 来自预训练网络的权重,形状为 input_dim x output_dim
W_A = nn.Parameter(torch.empty(input_dim, rank)) # LoRA权重A
W_B = nn.Parameter(torch.empty(rank, output_dim)) # LoRA权重B初始化LoRA权重
nn.init.kaiming_uniform_(W_A, a=math.sqrt(5))
nn.init.zeros_(W_B)

def regular_forward_matmul(x, W):
	h = x @ W
	return h

def lora_forward_matmul(x, W, W_A, W_B):
	h = x @ W # 常规矩阵乘法
	h += x @ (W_A @ W_B) * alpha # 使用缩放的LoRA权重
	return h

Reference:
 

一文读懂:LoRA实现大模型LLM微调_lora llm-CSDN博客


http://www.kler.cn/news/284234.html

相关文章:

  • EmguCV学习笔记 VB.Net 第9章 视频操作
  • maven的5种打包方式:springboot-maven-plugin详解
  • 故障诊断 | 基于小波时频图与Swin Transformer的轴承故障诊断方法(PyTorch)
  • 4.2 python获取单元格的属性
  • 单片机-串口通信(二)
  • .NET Razor类库 - 静态资源组件化
  • Zoom iOS 转录例子
  • 何为大模型服务器?如何明智地挑选?
  • HTML爱心流星雨
  • 6种有效的时间序列数据特征工程技术(使用Python)
  • 产品经理角度分析:朋友圈点赞与评论仅共同好友可见
  • 华为 2024 届校园招聘-硬件通⽤/单板开发——第一套(部分题目分享,完整版带答案,共十套)
  • 【机器学习-监督学习】神经网络与多层感知机
  • 影视会员充值API接口如何开发?
  • 从插件plugin和钩子hook 到“智能化自动化”架构
  • ubuntu环境下部署LNMP集成环境超详细图文教程
  • Linux的常见指令
  • WireShark网络分析~环境搭建
  • IDEA2023版本创建SSM项目框架
  • 自动化代码报错:ElementClickInterceptedException 解决方案
  • 计算机网络速成(三)
  • SQLi-LABS通关攻略【51-55关】
  • 使用SparkGraphX进行图计算时的编码问题
  • 用Python在PDF文档中创建动作
  • OpenCV+Python识别机读卡
  • python从列表元素中查找最小的元组坐标
  • Vue——认识day05_监视属性
  • 安装jmeter的梯度压测线程组(Custom Thread Groups)的插件
  • 10款必备的电脑监控软件推荐,实用又方便!顶尖产品一网打尽!2024纯干货
  • 【JAVA入门】Day28 - 数据结构