当前位置: 首页 > article >正文

LLaMA-Factory+Ollama远程服务器部署及知识库微调训练

参考

  1. LLaMA-Factory官网https://llamafactory.readthedocs.io/zh-cn/latest/#
  2. LLaMA-Factory+Ollama操作流程 https://zhuanlan.zhihu.com/p/991206079

微调和搭建知识库的区别

  1. rag需要载体(类似向量数据库,文档等)去承载知识库。
  2. 微调直接将功能加入到模型当中。
  3. 针对场景而定,结合知识库比较灵活,节省训练的算力。微调简单粗暴,有模型即可进行推理。

部署

默认cuda安装都已经完成,网上很多教程,不在这里多说。

运行以下指令以安装 LLaMA-Factory 及其依赖:

# 获取项目
git clone --depth 1 https://github.com/hiyouga/LLaMA-Factory.git
# 进入项目
cd LLaMA-Factory
# 创建环境
conda create -n llama_factory python=3.10
# 激活环境
conda activate llama_factory
# 安装依赖
pip install -e ".[torch,metrics]"

完成安装后,可以通过使用 llamafactory-cli version 来快速校验安装是否成功。
如果能成功看到类似 “Welcome to LLaMA Factory, version ······” 的字样,说明安装成功。

在这里插入图片描述

启动

进入webui

llamafactory-cli webui

打开链接即可看到训练平台。
在这里插入图片描述

使用训练平台

WebUI 主要分为四个界面:训练、评估与预测、对话、导出。

1.训练

需要指定的参数有:

  1. 模型名称及路径
  2. 训练阶段
  3. 微调方法
  4. 训练数据集
  5. 学习率、训练轮数等训练参数
  6. 微调参数等其他参数
  7. 输出目录及配置路径
    比如说,我选择的就是Baichuan-7B-Base的中文对话模型,数据集也选择的是alpaca的中文数据集。
    随后,可以点击 开始 按钮开始训练模型。

若使用CPU训练可能会报Warning,忽略即可
在这里插入图片描述

2.评估预测与对话

模型训练完毕后,通过在评估与预测界面通过指定 模型 及 适配器 的路径在指定数据集上进行评估。
也可以通过在对话界面指定 模型、 适配器 及 推理引擎 后输入对话内容与模型进行对话观察效果。

3.导出

在导出界面通过指定 模型、 适配器、 分块大小、 导出量化等级及校准数据集、 导出设备、 导出目录 等参数后,点击 导出 按钮导出模型。
(如果需要部署到Ollama上,请一定记得把模型导出)
示例:微调中文对话大模型
使用alpaca_zh_demo数据集微调Llama-3-8B-Chinese-Chat模型
训练过程的Loss曲线如下:

导出模型:
在这里插入图片描述

4.利用自己的数据进行微调

添加数据集信息

路径地址:/root/scratch/LLaMA-Factory/data
在这里插入图片描述
在dataset_info.json中加入自己的数据集名称和位置。custom_data为数据集的名称,test.json为位置,位置路径默认为在/root/scratch/LLaMA-Factory/data/test.json这个位置。
weiui同步可以显示名称
在这里插入图片描述

添加自己的数据

/root/scratch/LLaMA-Factory/data/test.json在这里添加数据

模型转换

git地址:https://github.com/ggml-org/llama.cpp

cd /root/scratch/LLaMA-Factory
git clone https://github.com/ggml-org/llama.cpp
cd llama.cpp
python convert_hf_to_gguf.py /root/scratch/LLaMA-Factory/saves/Baichuan-7B-Base/lora/train_2025-02-27-08-34-33/checkpoint-12 \
 --outfile /home/yyx/output-100.gguf \
 --outtype q8_0

模型转向量

# 查看拥有的模型
ollma list
# 返回
NAME               ID              SIZE      MODIFIED   
deepseek-r1:14b    ea35dfe18182    9.0 GB    5 days ago 
# 激活环境
conda activate llama_factory
# 安装包
pip install langchain_ollama
# 执行脚本
from langchain_ollama import OllamaEmbeddings

# 使用 Ollama Embeddings 模型
embeddings = OllamaEmbeddings(model="deepseek-r1:14b")

# 嵌入查询文本
result = embeddings.embed_query("My query to look up")
print(result)


http://www.kler.cn/a/572331.html

相关文章:

  • C#进阶指南
  • 基于opencv消除图片马赛克
  • HarmonyOS学习第11天:布局秘籍RelativeLayout进阶之路
  • 渲染101对Blender的支持与硬件配置详解
  • 批量给 Word 添加文字和图片水印
  • 【TCP/IP协议栈】【传输层】端口号、套接字、多路复用/分解、网络字节序
  • SQL语句初学
  • 文件上传漏洞详细利用流程
  • 补丁供应链案例:CVE-2024-7254. Protobuf. Google
  • 字节青训营后端方向的个人总结(2025年3月4日)
  • 【JavaScript—前端快速入门】JavaScript 基础语法
  • 【完整汇总】近 5 年 JavaScript 新特性完整总览
  • Linux:应用层协议
  • 蓝桥杯试题:DFS回溯
  • 【练习】【链表】力扣热题100 19. 删除链表的倒数第 N 个结点
  • Linux 下使用traceroute来进行网络诊断分析
  • 【前端】【vue辅助】【vue-tsc】用于 Vue 项目的 TypeScript 检查工具
  • 【go语言】——fmt.Sprintf函数
  • 泵吸式激光可燃气体监测仪:快速精准守护燃气管网安全
  • MyBatis - 单元测试 参数传递 注解 CRUD