本地私有化部署 DeepSeek Dify ,告别“服务器繁忙,请稍后再试”
前言
DeepSeek 最近实在太火爆了,导致官网对话访问经常提示“服务器繁忙,请稍后再试”。 如下图所示:
关于什么是DeepSeek这里就不科普了,自己上网随便查一下就知道了。
官网:https://www.deepseek.com/
目前DeepSeek最大的问题是访问流量太大,导致用户体验不好,它的深度思考模型和联网能力没有充分发挥出来,不过我相信后续加大投入,这类问题应该能得到缓解。
本文主要面向想在本地部署私有模型的开发同学,打造专属私人AI助手。
前置准备
硬件环境
- MacBook Pro(推荐)
- CPU >= 2 Core
- 内存 >=16GB (推荐)
笔者的电脑配置:
软件环境
- Docker
- Docker Compose
- Ollama
- Dify 社区版
- ChatBox
注:这里只演示在MacBook的部署过程,Windows和Linux的同学请自行实践。
安装Ollama & 加载模型
什么是Ollama?
Ollama 是一款跨平台的大模型管理客户端(MacOS、Windows、Linux),旨在无缝部署大型语言模型 (LLM),例如 DeepSeek、Llama、Mistral 等。Ollama 提供大模型一键部署,所有使用数据均会保存在本地机器内,提供全方面的数据隐私和安全性。
官网:https://ollama.com/
下载&加载本地模型
下载安装完ollama后,通过命令行可以查看对应的版本,并可以开始部署你想要的模型,这里选择的是deepseek-r1(默认是7b)。
https://ollama.com/library/deepseek-r1
ollama run deepseek-r1
安装交互式UI:ChatBox
什么是ChatBox?
Chatbox AI 是一款 AI 客户端应用和智能助手,支持众多先进的 AI 模型和 API,可在 Windows、MacOS、Android、iOS、Linux 和网页版上使用。
https://chatboxai.app/zh
- 选择模型提供方:OLLAMA API
- 填入API域名:http://127.0.0.1:11434
- 选择模型:deepseek-r1:latest
验证本地模型对话
至此你已经可以通过chatbox来跟deepseek对话, 如果你只是想体验DeepSeek的功能, 下面关于Dify 大模型服务搭建可以略过。
Dify 搭建个人知识库
什么是Dify?
Dify 是一款开源的大语言模型(LLM) 应用开发平台。它融合了后端即服务(Backend as Service)和 LLMOps 的理念,使开发者可以快速搭建生产级的生成式 AI 应用。即使你是非技术人员,也能参与到 AI 应用的定义和数据运营过程中。
Docker Compose部署
git clone https://github.com/langgenius/dify.git
cd dify/docker
cp .env.example .env
参考Docker Compose部署
https://docs.dify.ai/zh-hans/getting-started/install-self-hosted/docker-compose
启动Docker容器
docker compose up -d # 如果版本是Docker Compose V1,使用命令:docker-compose up -d
假设遇到以下问题,可以在前面我们安装的Docker Desktop设置里面配置镜像:
Docker Engine 配置
{
"builder": {
"gc": {
"defaultKeepStorage": "20GB",
"enabled": true
}
},
"experimental": false,
"registry-mirrors": [
"https://registry.dockermirror.com",
"https://docker-0.unsee.tech",
"https://docker.1panel.live",
"https://docker.imgdb.de",
"https://docker.m.daocloud.io",
"https://docker.tbedu.top",
"https://image.cloudlayer.icu",
"https://docker.melikeme.cn",
"https://cr.laoyou.ip-ddns.com",
"https://dockerpull.cn",
"https://hub.fast360.xyz",
"https://docker.hlmirror.com"
]
}
国内代理经常失效或访问超时,这里可以多尝试几次,或者配置新的代理镜像地址。
参考:目前国内可用Docker镜像源汇总(https://www.coderjia.cn/archives/dba3f94c-a021-468a-8ac6-e840f85867ea)
镜像容器启动成功如下所示:
Dify 平台添加Ollama模型
1、浏览器访问http://localhost/(默认 80 端口),进入Dify。
2、首次进入初始化设置账号密码
3、点击 Dify 平台右上角头像-> 设置 -> 模型供应商,选择Ollama,点击“添加模型”
- 模型名称:deepseek-r1
- 基础URL:http://host.docker.internal:11434
Dify 创建应用
Dify支持聊天助手、Agent、文本生成等基础应用,还支持进阶应用Chatflow和工作流。这里我们先简单尝试创建聊天助手,填入基本信息,点击“创建”即可。
Dify 创建知识库
主页选择知识库 -> 创建知识库 -> 上传知识,搭建属于你自己的知识库。
使用知识库
至此,基于Dify搭建个人知识库已完成, 如此一来模型可以基于知识库输出更精确的的问答。
写在最后
本文实践了如何通过Ollama 本地部署DeepSeek R1 模型,并且尝试通过Dify 平台来创建个人知识库,进而搭建专属私人的AI 助手。笔者在实践的过程中也收获良多,打开了自己尝试AI工具的思路。
DeepSeek 的爆火估计会让全球科技巨头重新审视“大力(堆芯片,高成本)出奇迹”的问题,一家名不见经传的小公司为什么能够突破创新,而且诞生在中国,难道我们已经摆脱“追随者”的身份了?我相信这只是开始,AI军备竞赛已经开始打响,作为普通人无法避开科技浪潮,如何不让自己随波逐流,或许我们需要躬身入局去体验,思考和探索。