当前位置: 首页 > article >正文

Day27 - 大模型微调,LLaMA搭建

指令微调

SFT:Supervised Fine - Tuning

  • 自我认知
    • self-cognition
    • identity
  • 私有知识 / 具体任务
  • 公共知识

 

LLaMA-Factory 搭建过程

1. 下载 LLaMA-Factory 源代码

​git clone https://github.com/hiyouga/LLaMA-Factory.git

2. 安装 LLaMA-Factory 依赖包

cd LLaMA-Factory
pip install -e ".[torch,metrics]"

3. 魔塔社区映射端口(各个平台都不一样)

export GRADIO_SERVER_PORT=7860 GRADIO_ROOT_PATH=/${JUPYTER_NAME}/proxy/7860/

 4. 启动 LLaMA-Factory(LLaMA Board 可视化微调)

llamafactory-cli webui

点击链接: http://0.0.0.0:7860


如何微调?

如何修改模型的自我认知?

 LLaMA-Factory/data/identity.json ,编辑模式打开该文件,修改{{name}}和{{author}},来改变模型的自我认知。

为了避免过拟合,训练的时候需要增加一些公共知识。

微调的核心是要去设计非常好的指令格式 ,指令格式的设计与上层开发是配套的。这个过程可以想象成:后端写接口,前端调接口去渲染数据,前后端得有个接口约定。

我们微调完大模型后,会将其变为API服务,然后用LangChain去调用,LangChain进行Prompt设计开发。

例如,在构建聊天机器人时,可以使用 LangChain 来搭建机器人的架构、整合各种API和服务,同时精心设计 Prompts 来确保机器人能够准确理解和回应用户的提问。通过不断地测试和优化 Prompts,提升对话的质量,使机器人更加智能和自然。

 


http://www.kler.cn/a/443807.html

相关文章:

  • el-form组件中的常用属性
  • 基于微信小程序的乡村旅游系统
  • [bug] StarRocks borker load意向之外的bug
  • Java操作Xml
  • node express服务器配置orm框架sequilize
  • 2024年港澳台华侨生联考师范类院校录取情况来
  • 初学stm32 ——— 串口通信
  • elementui在任意页面点击消息,弹出消息对应页面处理弹窗
  • 2.metagpt中的软件公司智能体 (ProductManager 角色)
  • @Resource与@Autowire
  • VGGNet:深度学习中的卷积神经网络经典之作
  • Elasticsearch 实战应用:开启数据搜索与分析新征程
  • c++ 找第一个只出现一次的字符
  • 人力资本管理SaaS的升级之路:群硕以本地化+云创新驱动行业变革
  • Java聊天室系统的设计与实现【源码+文档】
  • java数据类型(补充-引用类型)
  • 整点(枚举)
  • React 19有哪些新特性?
  • WPF+MVVM案例实战与特效(四十四)- WPF多语言支持全解析:轻松实现国际化应用
  • List;Set;Map集合
  • C++总结联想文档
  • Leetcode3266:K 次乘运算后的最终数组 II
  • TanStack——为现代前端开发提供高性能和灵活的工具
  • 应用程序设置开机自启动
  • MyBatis-Plus(一)
  • 论文笔记:是什么让多模态学习变得困难?