当前位置: 首页 > article >正文

ollama迁移已下载的单个模型到服务器

ollama迁移已下载的单个模型到服务器

场景

ollama是面向用户级的,部署和运行都很简单,是否高效就另说了。但最起码,他能充分利用用户的硬件设备,在GPU不足也能调用cpu和内存去加持。

ollama运行的模型基本是量化版本的,一般是Q4_K_M,也就是说正常部署一个14b模型是需要40G左右的显存,经过这么一量化,只需要10G显存就差不多了,虽然效果欠缺了很多哈。

模型文件很大,而且要链接ollama的服务器,基本事业单位都不行。那如何把电脑下载的模型拷贝运行就很重要了,这个教程就是解决这个问题。

方案

  1. 联网的电脑傻瓜式安装ollama
  2. 拉取镜像,执行下面命令:
    ollama pull qwen2.5:14b
    
  3. 下载完成后,执行下面命令,导出配置文件manifest:
    ollama show --modelfile qwen2.5:14b > ./Modelfile
    
  4. 配置文件Modelfile生成在当前目录下, 用文本打开如下:
    在这里插入图片描述
  5. 按指向的位置,拷贝模型文件。
  6. 把模型文件和配置文件一起拷贝到目标服务器。
  7. 在目标服务器修改配置文件的模型文件路径(填写实际路径,看上面步骤截图标红框部分)。
  8. 在目标机器执行以下命令进行模型文件载入。
    ollama create mymodelname -f ./Modelfile
    
  9. 到这里就迁移成功了,可以ollama list查一下了。

结语

其他博客一堆直接找blobs和manifests文件夹拷贝的方法很不靠谱,会出现各种异常,尤其是windows\linux字符问题。而我们这种方式基本等于手动加载模型,还能命名模型。


http://www.kler.cn/a/601204.html

相关文章:

  • 联核防爆无人叉车:高危环境中的安全搬运守护者
  • 【C++】深入理解list迭代器的设计与实现
  • zookeeper部署教程
  • element-ui calendar 组件源码分享
  • 软件测试之单元测试/集成测试/系统测试详解
  • CentOS 7部署主域名服务器 DNS
  • Windows 下使用 Docker 部署 Go 应用与 Nginx 详细教程
  • DeepSeek smallpond为何选中DuckDB?轻量级分析数据库的“屠龙术“
  • 内核编程十三:进程状态详解
  • React 知识回顾(HOC、合成事件、Fiber)
  • 【数据结构进阶】位图
  • Python Sanic面试题及参考答案
  • 手动创建kkFileView4.4.0镜像
  • 嵌入式八股RTOS与Linux--hea4与TLSF篇
  • 算法题(107):function
  • ARM异常处理流程与中断机制总结,与常见丢中断情况
  • 【服务器环境安装指南-指定 cuda 版本】在 Ubuntu 22.04 上完成 cuda-toolkit 12.0 和 cudnn 12.x 的安装教程
  • 风格混合增强的解纠缠学习在医学图像分割的无监督域自适应中的应用|文献速递-医学影像人工智能进展
  • 程序化广告行业(31/89):人群分类与广告投放策略全解析
  • 沪深300股指期货的看涨看跌方式是怎样的?