当前位置: 首页 > article >正文

docker利用ollama +Open WebGUI在本地搭建部署一套Deepseek-r1模型

系统:没有限制,可以运行docker就行
磁盘空间:至少预留50GB;
内存:8GB
docker版本:4.38.0 桌面版

下载ollama镜像

由于docker镜像地址,网络不太稳定,建议科学上网的一台服务器拉取ollama镜像:

docker pull ollama/ollama
docker images

在这里插入图片描述

创建并运行ollama容器

说明:本机为了测试只需要CPU的支持下进行安装运行ollama;如果是GPU,请参考ollama官网文档。

#CPU only
docker run -d -v ollama:/root/.ollama -p 11434:11434 --name ollama ollama/ollama
docker ps -a #查看运行的容器

在这里插入图片描述

测试访问ollama

http://127.0.0.1:11434
在这里插入图片描述

下载运行deepseek-r1模型

运行模型前首先要到https://ollama.com/library/选择自己要加载的模型(上面有各种模型:deepseek-r1,llama3.1,gemma2,qwen2.5,等等),我们在这选择现在最火的国产大模型deepseek-r1。
在这里插入图片描述
在这里插入图片描述

docker exec -it ollama  ollama run deepseek-r1:1.5b

在这里插入图片描述
在这里插入图片描述

docker安装Open WebGUI

Open WebGUI是一个用于与机器学习模型交互的Web界面。

如果本机已经安装ollama,使用如下命令创建运行open-webgui容器:

docker run -d -p 3000:8080 --add-host=host.docker.internal:host-gateway -v open-webui:/app/backend/data --name open-webui --restart always ghcr.io/open-webui/open-webui:main

打开浏览器,访问http://localhost:3000在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
ps:机器比较旧了,没办法,先跑着吧。在这里插入图片描述


http://www.kler.cn/a/593339.html

相关文章:

  • uniapp路由跳转导致页面堆积问题
  • 涨薪技术|Kubernetes(k8s)之Pod端口设置及资源配额
  • 蓝桥杯 之 拔河(2024年C/C++ B组 H题)
  • Leetcode 50.Pow(x,n) 使用快速幂求解
  • Flask从入门到精通--初始Flask
  • 仓库管理不能仅流于形式,需挖掘潜在价值
  • [科普] git和github等是什么关系 (由DS-R1生成)
  • Android SDK下载安装配置
  • 机器学习快速入门教程
  • 栈/堆/static/虚表
  • Fisher 信息矩阵公式原理:使用似然估计,二阶导数等知识点
  • MySQL 在 CentOS 7 上安装的步骤指南
  • Web3身份验证技术对数据保护的影响研究
  • C#入门学习记录(二)C# 中的转义字符——字符串处理的“魔法钥匙”​
  • QT入门笔记3
  • 这样配置让Nginx更安全
  • 服装零售行业数字化时代的业务与IT转型规划P111(111页PPT)(文末有下载方式)
  • iwebsec-SQL数字型注入
  • 基于Babylon.js的Shader入门之五:让Shader支持法线贴图
  • jmeter验证正则表达式提取值是否正确