当前位置: 首页 > article >正文

Docker 部署 Dify:轻松集成 Ollama 和 DeepSeek

1 Ollama的安装及使用

1.1 什么是Ollama?

Ollama 是一个用于本地部署和运行大型语言模型的框架。 Ollama 的作用包括:

  1. 本地模型运行:Ollama 允许在本地机器上运行大型语言模型(如 LLaMA、DeepSeek 等),无需依赖云端服务。
  2. 隐私保护:所有数据处理都在本地进行,避免数据泄露风险。
  3. 低延迟:本地运行模型可以减少网络延迟,提高响应速度。
  4. 模型管理:Ollama 提供了简单的命令行工具,用于下载、加载和管理模型,方便在 Dify 中快速切换和实验不同模型。
  5. API 支持:Ollama 提供 API 接口,Dify 可以通过这些接口与本地模型交互,完成文本生成、问答等任务。

1.2 安装Ollama

  1. 进入官网Ollama官网链接
  2. 点击Download下载
  3. 选择适配你系统的安装包
  4. 点击install下载
  5. 在命令行输入ollama,出现相关文字即安装验证成功
    在这里插入图片描述

1.3 使用Ollama

  1. 查看已下载的模型ollama list
    在这里插入图片描述

  2. 下载以及运行模型ollama run <模型名称>

  3. 删除模型`ollama rm <模型名称>

  4. 执行模型效果图在这里插入图片描述

  5. 可以在Ollama官网中查看支持的模型以及相关下载命令
    在这里插入图片描述

2 DeepSeek的认识

前一章节已经通过Ollama安装好了deepseek模型,这里对deepseek做个简单介绍

  1. DeepSeek 是一个开源的大型语言模型(LLM),专注于中文场景的优化,旨在为中文用户提供高效、高质量的自然语言处理能力

  2. 应用场景:
    文本生成:生成高质量的中文文章、故事、新闻等内容。
    问答系统:构建智能问答机器人,回答用户提出的问题。
    机器翻译:支持中英互译以及其他语言的翻译任务。
    文本摘要:从长文本中提取关键信息,生成简洁的摘要。
    情感分析:分析文本的情感倾向,适用于评论分析、舆情监控等场景。
    代码生成:支持生成代码片段,帮助开发者提高编程效率。

  3. R1相对V3模型开放了思维链功能,并允许进行模型蒸馏

3 Docker的安装与使用

3.1 Docker的认识

  1. Docker是一种用于构建、发布及运行应用程序的开源项目,他通过容器化技术简化了应用程序的部署和管理
  2. Docker解决了产品多版本迭代之后,不同环境之间的兼容问题;Docker的出现使我们开发的软件可以“带环境安装”,即安装的时候,可以把原始环境一模一样的复制过来,在自己的机器上可以运行,在别人的机器上也可以运行

3.2 Docker的安装

  1. 开启Hyper-V:Hyper-V 是微软自家的虚拟化技术,和vmware,virtualbox一样,都是主流的虚拟机工具。Hyper-V 优势在于它 与 Windows 操作系统紧密集成,不需要额外安装第三方虚拟化软件在这里插入图片描述

  2. 进入Docker官网下载Docker desktop
    在这里插入图片描述

  3. 按照步骤安装Docker desktop

  4. 命令行输入docker -v,验证安装在这里插入图片描述

  5. 汉化Docker desktop,汉化github地址,选择对应版本,按照指示进行汉化,如何查看版本号如图所示。在这里插入图片描述

  6. 设置镜像加速地址,在设置里的Docker引擎中添加如下文本后,点击Apply&Restart
    "registry-mirrors": [ "https://uvrekl8r.mirror.aliyuncs.com", "https://docker.registry.cyou", "https://docker-cf.registry.cyou", "https://dockercf.jsdelivr.fyi", "https://docker.jsdelivr.fyi", "https://dockertest.jsdelivr.fyi", "https://mirror.aliyuncs.com", "https://dockerproxy.com", "https://mirror.baidubce.com", "https://docker.m.daocloud.io", "https://docker.nju.edu.cn", "https://docker.mirrors.sjtug.sjtu.edu.cn", "https://docker.mirrors.ustc.edu.cn", "https://mirror.iscas.ac.cn", "https://docker.rainbond.cc" ]

4 Docker部署Dify

4.1 Dify的认识

Dify 是一个开源的 LLM(大型语言模型)应用开发平台,旨在帮助开发者快速构建基于大型语言模型的应用程序。它的核心功能包括:

  1. 可视化工作流设计:通过图形化界面,用户可以轻松设计和管理基于 LLM 的应用流程。
  2. 模型集成:支持集成多种大型语言模型(如 OpenAI、Hugging Face、Ollama 等),用户可以根据需求选择合适的模型。
  3. 数据处理与标注:提供数据管理工具,支持数据导入、标注和预处理。
  4. API 生成与部署:自动生成 API 接口,方便开发者将 LLM 应用集成到其他系统中。
  5. 多模型协作:支持多个模型的协同工作,例如将 DeepSeek 和 Ollama 结合使用,完成更复杂的任务。
  6. 在 Docker 中使用 Dify,可以快速搭建一个本地开发环境,方便实验和部署 LLM 应用。

4.2 安装Dify

  1. 下载Dify,Dify链接

  2. 进入docker-compose.yaml所在文件夹的终端中,运行命令:docker compose up -d在这里插入图片描述

  3. 安装成功后,在 Docker Desktop 中应该能看到以 docker 命名的文件夹,即为安装成功。
    在这里插入图片描述

4.3 配置Dify

  1. 打开浏览器,访问 http://127.0.0.1/,你会看到Dify的设置页面

  2. 创建管理员账户:设置用户名、邮箱和密码

  3. 配置模型
    3.1 首先点击设置
    在这里插入图片描述3.2点击模型供应商
    在这里插入图片描述3.3
    选择Ollama,模型名称选择你安装的大语言模型,基础URL默认是http://host.docker.internal:11434/
    在这里插入图片描述

  4. 此时一切完成,可以开始创建你的第一个应用了

在这里插入图片描述


http://www.kler.cn/a/554220.html

相关文章:

  • 第1章大型互联网公司的基础架构——1.7 MySQL
  • RTSP协议讲解及漏洞挖掘
  • 西电B测-计算机网络综合实验(含验收问题)
  • 分享8款AI生成PPT的工具!含测评
  • 面试题之手写call,apply,bind
  • 【数据迁移】Sqlserver 迁移 Postgresql 详解 CSV+COPY 详细图文教程(实战踩坑优化案例)
  • 无人机热成像与AI跟踪技术:全天候智能应用的未来!
  • 运用先进的智能算法和优化模型,进行科学合理调度的智慧园区开源了
  • Vue的$nextTick是如何工作的
  • vue中为组建添加样式的方式
  • 使用docker-compose运行服务
  • 大摩闭门会:250218 学习总结报告
  • EasyExcel快速入门
  • 短视频平台“封号圈”乱象猖獗,IP查询如何助力防范
  • 【llm post-training】从Loss Function设计上看LLM SFT和RL的区别和联系
  • 在Linux上安装和使用Docker
  • Linux日志系统
  • 使用mybatis -基本的增删改查
  • 从零搭建微服务项目Base(第7章——微服务网关模块基础实现)
  • k8s-对接NFS存储