当前位置: 首页 > article >正文

CentOS环境搭建DeepSeek本地知识库

1. 安装Ollama

  1. Ollama官网:https://ollama.com/download/linux

  2. 使用官网提供的命令直接安装

    curl -fsSL https://ollama.com/install.sh | sh
    

    大概率下载不了安装包,使用下面步骤手动安装吧

  3. 下载安装包

    curl -L https://ollama.com/download/ollama-linux-amd64.tgz -o ollama-linux-amd64.tgz
    

    官网提供命令下载安装包,依然下载不了。

    使用魔法上网,新开浏览器访问https://ollama.com/download/ollama-linux-amd64.tgz会自动下载。

    将下载好的文件上传至服务器 /opt/ollama 目录

  4. 解压ollama到/usr目录下

    sudo tar -C /usr -xzf ollama-linux-amd64.tgz
    
  5. 启动脚本

    vim /etc/systemd/system/ollama.service
    
    [Unit]
    Description=Ollama Service
    After=network-online.target
    
    [Service]
    ExecStart=/usr/bin/ollama serve
    User=root
    Group=root
    Restart=always
    RestartSec=3
    Environment="PATH=$PATH"
    # 解决ollama无法访问的问题
    # 如果不配置这个,默认是127.0.0.1:11434,只能够本机连接,会导致docker部署的anythingllm连接不到ollama
    Environment="OLLAMA_HOST=0.0.0.0:11434"
    
    [Install]
    WantedBy=default.target
    

    启动命令:

    sudo systemctl daemon-reload
    sudo systemctl enable ollama.service
    sudo systemctl restart ollama.service
    sudo systemctl status ollama.service
    

    查看状态:

    # 查看ollama的版本
    ollama -v
    
    # 查看已安装的大模型
    ollama list
    
  6. 通过ollama安装大模型(根据硬件配置选择合适的)

    本次安装DeepSeek R1 7b

    ollama run deepseek-r1:7b
    

​ 安装完成后可以测试问答

在这里插入图片描述

2. 使用docker安装AnythingLLM

备注:AnythingLLM、Dify、Open-WebUI对比

AnythingLLMDifyOpen-WebUI
主要目标本地知识库 + 向量检索 + AI 问答多场景对话管理 + 插件化扩展纯聊天界面 + 多模型集成
对 Ollama 的集成方式配置后端地址,将 Ollama 作为推理引擎配置“模型”选项,调用 Ollama 的本地 API使用后台插件或统一接口连接 Ollama
使用门槛中等,需要了解向量检索原理及一些配置较高,需要熟悉插件体系与多模型管理较低,以网页 UI 为主进行模型选择和对话
文档/知识库支持强:内置文档索引 + 检索通过插件或自定义场景支持(需要额外配置)默认弱,仅提供单纯对话,需要自行扩展
插件/扩展性具备一定的检索扩展和 API 接口,插件生态相对较少强:本身就是一个可插拔平台,可快速对接多服务较为活跃,很多社区贡献的小功能或自定义脚本
可视化界面提供基本管理与问答界面提供更丰富的对话流编排和配置界面网页化聊天 UI,操作简便
应用场景1. 企业文档问答 2. 个人知识管理1. 多模型/多场景切换 2. 插件式客服/应用1. 快速体验/切换本地模型 2. 个人聊天与测试
入门学习曲线需要理解知识库+检索机制,但整体不算复杂功能全面,但配置略复杂,适合有一定开发经验的团队易上手,安装后打开网页即可使用

AnythingLLM 更专注于文档知识库与问答场景,自带向量检索管理,可“多文档整合”,接入 Ollama 后实现本地化问答

Dify 功能多元,适合对话流管理、插件化扩展、团队协同等复杂需求。只要能在其后台正确配置 Ollama 地址,即可灵活调用。

Open-WebUI 走纯粹聊天界面路线,你可以把它当做一个能“轻松切换模型、马上对话”的 Web 面板,如果只是想单纯体验 Ollama 的生成效果,Open-WebUI 也许是最方便的。

  1. 访问地址:https://github.com/Mintplex-Labs/anything-llm/

  2. 下载镜像

    docker pull mintplexlabs/anythingllm
    
  3. 建目录并赋权限

    export STORAGE_LOCATION=/opt/anythingllm && \
    mkdir -p $STORAGE_LOCATION && \
    touch "$STORAGE_LOCATION/.env"
    
    chmod -R 777 /opt/anythingllm
    
  4. 运行容器

    docker run -d -p 13001:3001 --restart=always \
    --name anythingllm --add-host=host.docker.internal:host-gateway \
    --cap-add SYS_ADMIN \
    -v ${STORAGE_LOCATION}:/app/server/storage \
    -v ${STORAGE_LOCATION}/.env:/app/server/.env \
    -e STORAGE_DIR="/app/server/storage" \
    mintplexlabs/anythingllm
    
  5. web访问

    访问:http://服务器IP地址:13001

    在这里插入图片描述

  6. AnythingLLM配置

    在这里插入图片描述

    在这里插入图片描述

    在这里插入图片描述

    在这里插入图片描述

    在这里插入图片描述

    在这里插入图片描述

3. 建立知识库

  1. 在AnythingLLM创建完工作区后,在工作区上传文档

    在这里插入图片描述

    在这里插入图片描述

Embed解释:

​ 文档 Embed = 把文本变成向量 + 存入数据库 + 进行相似搜索。它是 AI 知识库、搜索推荐、智能问答的核心技术,让 AI 理解文本语义,而不只是匹配关键词。

  1. 将文档关联到会话

    文档上传到工作区后,点击文档后面的“图钉”按钮,可以关联文档到会话

    在这里插入图片描述

  2. 进行问答测试


http://www.kler.cn/a/550347.html

相关文章:

  • LeetCode-633. 平方数之和
  • BeeWorks:安全专属的im即时通讯与协同办公平台
  • midjourney 一 prompt 提示词
  • 基于单片机的多功能热水器设计(论文+源码)
  • 6.2.4 基本的数据模型
  • Jenkins同一个项目不同分支指定不同JAVA环境
  • 【Python 打造高效文件分类工具】
  • 数值分析与科学计算导引——误差与算法举例
  • Java每日精进·45天挑战·Day20
  • 游戏引擎学习第107天
  • 06_Machine Vision_图像分割
  • string类详解(上)
  • Redis日志分析
  • git在工作流程中的使用
  • 箭头函数的this指向谁
  • 用React实现一个登录界面
  • 文档处理控件TX Text Control系列教程:使用 .NET C# 从 PDF 文档中提取基于模板的文本
  • android 自定义view时钟显示
  • 以 Serverless 低成本的⽅式 快速在亚马逊云科技上部署 DeepSeek
  • DeepSeek 实用万能提问模板