当前位置: 首页 > article >正文

服务器使用宝塔面板Docker应用快速部署 DeepSeek-R1模型,实现Open WebUI访问使用

Deepseek这段时间非常火,最新推理模型Deepseek R1,都想装上试一试,特别是部署到服务器教程网上一堆教程好像没几个部署成功靠谱的,先说服务器上下载Ollama就难倒一堆人,每次都超时。今天终于在宝塔看到一篇 应用安装文章,借该方法更简单省事,容器里一次把ollama和open-webui安装了,再科普下Ollama‌是一个开源框架,专为在本地机器上便捷部署和运行大型语言模型(LLM)而设计。Open WebUI是一款高度可扩展、功能强大且用户友好的自托管Web用户界面,专为完全离线操作设计。DeepSeek-R1系列模型是基于Transformer架构的大型语言模型,支持中英文双语处理。该系列模型通过不断优化算法和增加训练数据,逐步提升了模型的性能和适用性。

如何30秒安装一个DeepSeek-R1 AI模型?今天播播资源全部实操体验成功后分享给大家一起学习。服务器上Ollama‌+open-webui+DeepSeek-R1系列模型全部搞定

配置不满足运行模型会导致服务器卡死或无法访问,请正确选择服务器配置后部署!

各模型建议的服务器配置:
2c4g可以运行1.5b,想要更流畅的话建议到8g内存,此模型可以不需要GPU
8c16g可以运行7b/8b,此模型建议使用GPU运行,建议最少使用8G运存的GPU

腾讯云性能基准测试如下:
【1.5B模型:内存占用2G左右】
2c4g(S5):生成过程中,CPU占用100%
2c8g(S5):生成过程中,CPU占用100%
4c16g(S2):生成过程中,CPU占用100%
16c64g(SA2):生成过程中,CPU占用30~40%

【7B模型:内存占用7.6G左右】
4c8g(SA2):生成过程中,CPU占用100%
16c64g(SA2):生成过程中,CPU占用50%

此使用帮助适用宝塔面板9.4.0以上的版本(2025年2月6日后发布的滚动修复包,请修复面板后安装DeepSeek-R1)

20250210152835735

前往宝塔面板【Docker】-【应用商店】,点击DeepSeek-R1应用,点击安装即可,如果没显示DeepSeek应用,请点击右上角【更新应用列表】获取

20250210144128373

随后点击【已安装】应用的文件夹按钮,前往对应的应用目录(这里注意使用GPU时才需要这样操作),如果使用CPU默认不需要改可省略

20250210144200658

20250210144531358

使用GPU时 编辑docker-compose.yml文件,将第5-11行的注释去掉,保存

20250210144402824

20250210144501895

再回到【已安装】应用界面,将此应用重启即可启用GPU支持

20250210144625803

安装完成容器里面就有两个容器信息,该应用应该包含了Open WebUI一起

20250210144745136

绑定域名访问,同时加个SSL,这样就可以通过域名打开访问Open WebUI前端了,包括反代什么的都自动帮你设置好了

20250210144916803

也可以手动处理反代信息,注意把安全端口放行一下

20250210145113709

完成通过域名访问,网址打开时会提示输入管理账号密码,需要设置下,设置好就能正常进入界面

20250210145254320

安装模型。在左下角打开设置找到模型,打开下载那个小图标

20250210145553926

选择下载对应模型,具体需要下载什么模型可打开https://ollama.com/library/deepseek-r1:1.5b 查看

20250210145650280

比如下载 ollama run deepseek-r1:7b 大小4.7G

20250210145758644

按理这步应该到此为止了,下载模型时老提示超时,这边模型也没下载成功,后面试了几次了几次下载成功,下了个最小的ollama run deepseek-r1:1.5b  大小1.5G ,模型下载非常慢

20250210152629912

20250210150142705

安装模型。在左下角打开设置找到模型,打开下载那个小图标

20250210145553926

选择下载对应模型,具体需要下载什么模型可打开https://ollama.com/library/deepseek-r1:1.5b 查看

20250210145650280

比如下载 ollama run deepseek-r1:7b 大小4.7G

20250210145758644

按理这步应该到此为止了,下载模型时老提示超时,这边模型也没下载成功,后面试了几次了下载成功,下了个最小的ollama run deepseek-r1:1.5b  大小1.5G ,模型下载非常慢用时也差不多1个小时

20250210152629912

20250210150142705

 

写到最后体验后感觉还是失望了,一个回答差不多用了 3分钟,24核服务器64G 100M共享带宽采用CPU模式一个问题回答用了3分钟,这感觉是从高空俯冲到地面,真正测试后才知道服务器得多高才能玩这模型,不过有money的朋友可以考虑,其他人还是老老实实接入API吧。

顺便推荐个API接口平台给大家使用,目前支持deepseek-r1 、deepseek-v3、deepseek-search、deepseek-reasoner等模型,同时还支持chatgpt最新模型o1、o3-mini、o3-mini-2025-01-31等模型

数字先锋聚合大模型API接口网址https://api.cxhao.com

优势所有地址数据互通,一个令牌KEY通用国内外各大模型使用,几乎支持所有国内外大模型


http://www.kler.cn/a/540372.html

相关文章:

  • 推荐一个免费的、开源的大数据工程学习教程
  • WPS如何接入DeepSeek(通过JS宏调用)
  • FFmpeg(一) 简介
  • 利用UNIAPP实现短视频上下滑动播放功能
  • hi3516cv610调试isp相关sample例子fast_ae
  • Ollama 部署 DeepSeek-R1 及Open-WebUI
  • Godot开发框架探索#2
  • 线程状态示意图
  • ElasticSearch 分页技术详解:实现方式与最佳实践
  • python之keyring库:安全密码管理库,不同平台service_name、username的获取
  • DeepSeek从入门分析总结
  • 【Golang学习之旅】gRPC 与 REST API 的对比及应用
  • kafka topic是什么?partition是什么? broker是什么?
  • 如何使用DeepSeek帮助自己的工作?
  • Vue.js 状态管理库Pinia
  • 关于SoC产品介绍:ICNM8501
  • Day82:创建图形界面(GUI)
  • IntelliJ IDEA使用经验(十三):使用Git克隆github的开源项目
  • 【Matlab优化算法-第14期】基于智能优化算法的VMD信号去噪项目实践
  • Maven 在 Eclipse 中的使用指南
  • 机器学习中过拟合和欠拟合问题处理方法总结
  • 【Linux系统】—— 简易进度条的实现
  • Mac重复文件,一键查找并清理的工具
  • 如何把邮件批量导出到本地
  • iOS主要知识点梳理回顾-3-运行时
  • SpringCloud面试题----.Ribbon和Feign调用服务的区别