Docker 部署 Dify:轻松集成 Ollama 和 DeepSeek
1 Ollama的安装及使用
1.1 什么是Ollama?
Ollama 是一个用于本地部署和运行大型语言模型的框架。 Ollama 的作用包括:
- 本地模型运行:Ollama 允许在本地机器上运行大型语言模型(如 LLaMA、DeepSeek 等),无需依赖云端服务。
- 隐私保护:所有数据处理都在本地进行,避免数据泄露风险。
- 低延迟:本地运行模型可以减少网络延迟,提高响应速度。
- 模型管理:Ollama 提供了简单的命令行工具,用于下载、加载和管理模型,方便在 Dify 中快速切换和实验不同模型。
- API 支持:Ollama 提供 API 接口,Dify 可以通过这些接口与本地模型交互,完成文本生成、问答等任务。
1.2 安装Ollama
- 进入官网Ollama官网链接
- 点击Download下载
- 选择适配你系统的安装包
- 点击install下载
- 在命令行输入ollama,出现相关文字即安装验证成功
1.3 使用Ollama
-
查看已下载的模型
ollama list
-
下载以及运行模型
ollama run <模型名称>
-
删除模型`ollama rm <模型名称>
-
执行模型效果图
-
可以在Ollama官网中查看支持的模型以及相关下载命令
2 DeepSeek的认识
前一章节已经通过Ollama安装好了deepseek模型,这里对deepseek做个简单介绍
-
DeepSeek 是一个开源的大型语言模型(LLM),专注于中文场景的优化,旨在为中文用户提供高效、高质量的自然语言处理能力
-
应用场景:
文本生成:生成高质量的中文文章、故事、新闻等内容。
问答系统:构建智能问答机器人,回答用户提出的问题。
机器翻译:支持中英互译以及其他语言的翻译任务。
文本摘要:从长文本中提取关键信息,生成简洁的摘要。
情感分析:分析文本的情感倾向,适用于评论分析、舆情监控等场景。
代码生成:支持生成代码片段,帮助开发者提高编程效率。 -
R1相对V3模型开放了思维链功能,并允许进行模型蒸馏
3 Docker的安装与使用
3.1 Docker的认识
- Docker是一种用于构建、发布及运行应用程序的开源项目,他通过容器化技术简化了应用程序的部署和管理
- Docker解决了产品多版本迭代之后,不同环境之间的兼容问题;Docker的出现使我们开发的软件可以“带环境安装”,即安装的时候,可以把原始环境一模一样的复制过来,在自己的机器上可以运行,在别人的机器上也可以运行
3.2 Docker的安装
-
开启Hyper-V:Hyper-V 是微软自家的虚拟化技术,和vmware,virtualbox一样,都是主流的虚拟机工具。Hyper-V 优势在于它 与 Windows 操作系统紧密集成,不需要额外安装第三方虚拟化软件
-
进入Docker官网下载Docker desktop
-
按照步骤安装Docker desktop
-
命令行输入
docker -v
,验证安装 -
汉化Docker desktop,汉化github地址,选择对应版本,按照指示进行汉化,如何查看版本号如图所示。
-
设置镜像加速地址,在设置里的Docker引擎中添加如下文本后,点击Apply&Restart
"registry-mirrors": [ "https://uvrekl8r.mirror.aliyuncs.com", "https://docker.registry.cyou", "https://docker-cf.registry.cyou", "https://dockercf.jsdelivr.fyi", "https://docker.jsdelivr.fyi", "https://dockertest.jsdelivr.fyi", "https://mirror.aliyuncs.com", "https://dockerproxy.com", "https://mirror.baidubce.com", "https://docker.m.daocloud.io", "https://docker.nju.edu.cn", "https://docker.mirrors.sjtug.sjtu.edu.cn", "https://docker.mirrors.ustc.edu.cn", "https://mirror.iscas.ac.cn", "https://docker.rainbond.cc" ]
4 Docker部署Dify
4.1 Dify的认识
Dify 是一个开源的 LLM(大型语言模型)应用开发平台,旨在帮助开发者快速构建基于大型语言模型的应用程序。它的核心功能包括:
- 可视化工作流设计:通过图形化界面,用户可以轻松设计和管理基于 LLM 的应用流程。
- 模型集成:支持集成多种大型语言模型(如 OpenAI、Hugging Face、Ollama 等),用户可以根据需求选择合适的模型。
- 数据处理与标注:提供数据管理工具,支持数据导入、标注和预处理。
- API 生成与部署:自动生成 API 接口,方便开发者将 LLM 应用集成到其他系统中。
- 多模型协作:支持多个模型的协同工作,例如将 DeepSeek 和 Ollama 结合使用,完成更复杂的任务。
- 在 Docker 中使用 Dify,可以快速搭建一个本地开发环境,方便实验和部署 LLM 应用。
4.2 安装Dify
-
下载Dify,Dify链接
-
进入docker-compose.yaml所在文件夹的终端中,运行命令:
docker compose up -d
-
安装成功后,在 Docker Desktop 中应该能看到以 docker 命名的文件夹,即为安装成功。
4.3 配置Dify
-
打开浏览器,访问 http://127.0.0.1/,你会看到Dify的设置页面
-
创建管理员账户:设置用户名、邮箱和密码
-
配置模型
3.1 首先点击设置
3.2点击模型供应商
3.3
选择Ollama,模型名称选择你安装的大语言模型,基础URL默认是http://host.docker.internal:11434/
-
此时一切完成,可以开始创建你的第一个应用了