当前位置: 首页 > article >正文

docker desktop使用ollama在GPU上运行deepseek r1大模型

一、安装docker

  1. 安装WSL
  2. 打开Hyper V

可以参考:用 Docker 快速安装软件_哔哩哔哩_bilibili

二、拉取ollama镜像

在powershell中运行如下命令,即可拉取最新版本的ollama镜像:

docker pull ollama/ollama

如果需要指定版本,可以用如下命令:

# CPU 或 Nvidia GPU下载ollama 0.3.0
docker pull ollama/ollama:0.3.0
# AMD GPU下载ollama 0.3.0
docker pull ollama/ollama:0.3.0-rocm

 

三:启动ollama容器:

方式一:docker desktop界面启动

  • 下载完成后,可以在 Images中找到 Ollama 镜像,点击 run 标识即可运行,注意运行前在弹出的可选设置里面,选定一个端口号(如8089)。

方式二:命令行启动

  • CPU 版本:
    docker run -d -v ollama:/root/.ollama -p 11434:11434 --name ollama ollama/ollama
  • GPU版本:
    docker run -d --gpus=all -d -v ollama:/root/.ollama -p 11434:11434 --name ollama ollama/ollama

注:也可以通过docker-compose.yaml配置文件拉取ollama,参考Docker部署全攻略:Ollama安装、本地大模型配置与One-API接入_ollama docker部署-CSDN博客

关于ollama使用GPU还可以参考:在Linux上如何让ollama在GPU上运行模型_ollama使用gpu-CSDN博客

Ollama 现已推出官方 Docker 镜像 · Ollama 博客 - Ollama 框架

四、在ollama容器中拉取deepseek r1模型

我拉取的是14B,大家可以根据自己电脑配置选择不同版本大模型

在ollama容器中执行如下命令,等待下载好deepseek-r1完成即可:

ollama run deepseek-r1:14b

参考:deekseek-r1本地部署指南极简版-CSDN博客

 如果大家还想使用open web ui可以参考:deepseek-r1落地指南(搭建web-ui | 搭建本地代码编辑器)-CSDN博客

五、(可选)运行deepseek并调用GPU

如果在“三:启动ollama容器:”中启用的是CPU版本的容器,则deepseek无法调用GPU,如果还想调用GPU,应该如下操作:

1.验证docker可以调用GPU命令如下:

docker run --gpus all ubuntu nvidia-smi

2.制作镜像保存在本地,命令如下:

docker commit 5ae3d25d6f5d odeepseek14b

3.运行镜像,生成容器,命令如下(命令中要包含--gpus=all才能调用GPU):

docker run -d --gpus=all --hostname=5ae3d25d6f5d --env=PATH=/usr/local/sbin:/usr/local/bin:/usr/sbin:/usr/bin:/sbin:/bin --env=OLLAMA_HOST=0.0.0.0 --env=LD_LIBRARY_PATH=/usr/local/nvidia/lib:/usr/local/nvidia/lib64 --env=NVIDIA_DRIVER_CAPABILITIES=compute,utility --env=NVIDIA_VISIBLE_DEVICES=all --network=bridge -p 8089:11434 --restart=no --label='org.opencontainers.image.ref.name=ubuntu' --label='org.opencontainers.image.version=22.04' --runtime=runc -d odeepseek14b

注意:调用GPU时,如果加上--gpus=all,则容器inspect中会显示如下:

		"DeviceRequests": [
			{
				"Driver": "",
				"Count": -1,
				"DeviceIDs": null,
				"Capabilities": [
					[
						"gpu"
					]
				],
				"Options": {}
			}
		],

如果没有加 --gpus=all,会显示:

"DeviceRequests": null,

则无法调用GPU

4.验证容器中是否调用GPU成功,命令如下:

nvidia-smi


http://www.kler.cn/a/523927.html

相关文章:

  • 一文讲解Java中的BIO、NIO、AIO之间的区别
  • FreeRTOS从入门到精通 第十四章(队列集)
  • Java坦克大战
  • SQL教程-基础语法
  • 基于特征工程与转换方法的LightGBM资产预测研究
  • 抖音上线打车服务?抖音要大规模杀入网约车了吗?
  • ACL-2024 | 具身智能空间理解能力几何?EmbSpatial-Bench:视觉语言大模型在具身任务中空间理解水平测试基准
  • 如何获取svg图标中的路径 (漫反射图标效果实现)
  • 算法随笔_29:最大宽度坡_方法3
  • 澳洲硕士毕业论文写作中如何把握主题
  • 笔记本跑大模型尝试
  • 奖励模型:解析大语言模型的关键工具
  • 作業系統:設計與實現-母本
  • 密码学的数学基础1-整数 素数 和 RSA加密
  • vim交换文件的作用
  • 关于2024年
  • 2024年12月GESP C++ 二级考级真题—寻找数字
  • *胡闹厨房*
  • Python爬虫学习第三弹 —— Xpath 页面解析 实现无广百·度
  • 16、Spring 框架基础:开启 Java 企业级开发的新时代
  • 【信息系统项目管理师-选择真题】2009下半年综合知识答案和详解
  • 知识库管理系统提升企业知识价值与工作效率的实践路径分析
  • 朴素贝叶斯模型
  • 为华为云函数增加App认证
  • 【Rust自学】15.0. 智能指针(序):什么是智能指针及Rust智能指针的特性
  • 好用的AI/解析网站