当前位置: 首页 > article >正文

LLaMA-Factory 微调LLaMA3

LoRA介绍

LoRA(Low-Rank Adaptation)是一种用于大模型微调的技术, 通过引入低秩矩阵来减少微调时的参数量。在预训练的模型中, LoRA通过添加两个小矩阵B和A来近似原始的大矩阵ΔW,从而减 少需要更新的参数数量。具体来说,LoRA通过将全参微调的增量 参数矩阵ΔW表示为两个参数量更小的矩阵B和A的低秩近似来实 现:

• [ W_0 + \Delta W = W_0 + BA ] • 其中,B和A的秩远小于原始矩阵的秩,从而大大减少了需要更新 的参数数量。

LLaMA-Factory 框架

首先需要通过vscode连接远程服务器哦

如果是租赁的AutoDL服务器,一定要将模型下载到数据盘。

git clone https://github.com/hiyouga/LLaMA-Factory.git
cd LLaMA-Factory
pip install -e .

准备训练数据

训练数据: fintech.json identity.json 将训练数据放在 LLaMA-Factory/data/fintech.json

并且修改数据注册文件:LLaMA-Factory/data/dataset_info.json

 "fintech": {
 "file_name": "fintech.json",
 "columns": {
 "prompt": "instruction",
 "query": "input",
 "response": "output",
 "history": "history"
 }
 }

启动 Web UI

cd LLaMA-Factory

llamafactory-cli webui

vscode自带端口转发,不需要进行内网穿透了。

一定要在LLaMA-Factory 目录下启动。

模型准备

pip install modelscop #安装modelscope平台

sdk方式下载模型,同时可以查看模型整体的大小和权重。

模型微调,微调 Llama-3.2-1B-Instruct 模型


http://www.kler.cn/a/519814.html

相关文章:

  • python生成图片和pdf,快速
  • 9.business english-agreement
  • arm-linux平台、rk3288 SDL移植
  • 利用Redis实现数据缓存
  • 基于SpringBoot+WebSocket的前后端连接,并接入文心一言大模型API
  • 《Chart.js 饼图:深度解析与最佳实践指南》
  • 深入理解Transformer中的解码器原理(Decoder)与掩码机制
  • WordPress event-monster插件存在信息泄露漏洞(CVE-2024-11396)
  • 刷题记录 贪心算法-2:455. 分发饼干
  • 【人工智能】循环神经网络学习
  • 【练习】PAT 乙 1020 月饼
  • 单片机基础模块学习——数码管(二)
  • 微信阅读网站小程序的设计与实现(LW+源码+讲解)
  • OLMo:开启AI研究新纪元的开放利器
  • 基于java线程池和EasyExcel实现异步导出
  • 如何使用Java爬虫获取AliExpress商品详情:代码示例与实践指南
  • python爬虫框架Scrapy简介
  • C#牵手Blazor,解锁跨平台Web应用开发新姿势
  • 机器人学习的范式转变:从专用走向通用基础模型
  • C# 中使用Hash用于密码加密
  • AI Agent的多轮对话:提升用户体验的关键技巧
  • Linux之Tcp粘包笔记
  • Oracle之Merge into函数使用
  • 蓝桥杯LQ1044 求完数
  • 不同路径(62)
  • 机器学习 ---逻辑回归