当前位置: 首页 > article >正文

如何将使用unsloth微调的模型部署到ollama?

目录

一、将模型保存为gguf格式

二、下载llama.cpp

三、生成 llama-quantize 可执行文件

四、使用llama-quantize

五、训练模型

六、将模型部署到ollama


一、将模型保存为gguf格式

在你的训练代码 trainer.train() 之后添加:

model.save_pretrained_gguf("model", tokenizer,)

二、下载llama.cpp

网址:GitHub - ggerganov/llama.cpp: LLM inference in C/C++

git clone GitHub - ggerganov/llama.cpp: LLM inference in C/C++ 或者 下载.zip解压。注意llama.cpp需要与训练代码同目录。

三、生成 llama-quantize 可执行文件

①打开 PowerShell 或命令提示符

②切换到 llama.cpp 文件夹

cd llama.cpp

③创建构建目录并配置

mkdir build
cd build
cmake .. -DCMAKE_BUILD_TYPE=Release

④执行构建

cmake --build . --config Release

⑤生成的可执行文件应位于

...llama.cpp\build\bin\Release

四、使用llama-quantize

在 llama.cpp 下创建 llama-quantize 文件夹并将 Release 粘贴进 llama-quantize 文件夹。

五、训练模型

进入 train.py 所在路径 python train.py。

六、将模型部署到ollama

①启动ollama

ollama serve

②进入训练后生成的 model 目录

③部署模型到ollama

ollama create your-model-name -f Modelfile

④测试模型


http://www.kler.cn/a/517337.html

相关文章:

  • doris:MySQL Load
  • 第17篇:python进阶:详解数据分析与处理
  • 我谈区域偏心率
  • C++ lambda表达式
  • 考研机试题:打印日期
  • Python数据可视化(够用版):懂基础 + 专业的图表抛给Tableau等专业绘图工具
  • 通过聚合和分离进行音频深度伪造检测的领域泛化
  • Android Studio:视图绑定的岁月变迁(2/100)
  • 在Linux系统上安装.NET
  • 【江西省乡镇界】面图层shp格式乡镇名称和编码wgs84无偏移arcgis数据内容测评
  • AI评估困境:标准化与实际应用的鸿沟
  • MySQL Redo Log 两阶段提交
  • 01 使用 海康SDK 对车辆监控设备进行布防
  • 安卓入门三十五 事件分发机制详解
  • Visual Studio 2022 GitHub Copilot聊天使用
  • 软件测试入门—软件缺陷 Bug 详解
  • 如何将IP地址修改为海外IP:详细操作指南
  • linux网络 | TCP报头之六个标记位与部分可靠性策略
  • 【无标题】mysql python 连接
  • qml Dialog详解
  • 达梦拷贝DM_HOME的复制安装
  • Python Numpy 数组的条件筛选
  • ubuntu 把安装好的 wine软件 打包 到另外一台机器
  • R语言学习笔记之高效数据操作
  • 第17篇:python进阶:详解数据分析与处理
  • SpringCloud之服务间通信超时:突破微服务的“时间枷锁”