当前位置: 首页 > article >正文

Deepseek+RAGFLOW部署教程

本篇教程为Deepseek+RAGFLOW详细部署

本篇主要基于linux服务器部署ragflow+deepseek,其他操作系统稍有差异但是大体一样。
——————————————————————————————————

前言说明:

Ubantu22系统部署RAGFLOW,在之前的博文中记录过,有需要的可以点击查看linux服务器部署ragflow+ollama

Ubantu系统离线部署ollama可参考博文基于linux服务器Ubantu20.04的离线Ollama安装(手动安装成功)

请注意区分ollama版本,最新的最好,至少要满足拉取需要模型的要求
————————————————————————————————

一、先决条件

CPU ≥ 4核;
RAM ≥ 16 GB;
磁盘 ≥ 50 GB;
Docker ≥ 24.0.0 & Docker Compose ≥ v2.26.1。
如果尚未在本地计算机(Windows、Mac或Linux)上安装Docker,请参阅安装Docker引擎。
——————————————————————
我的服务器系统 Ubuntu 22.04.5 LTS,16核CPU,32G内存,200G硬盘。
——————————————————————

二、启动RAGFLOW服务器

1、确保 vm.max_map_count ≥ 262144:

vm.max_map_count.此值设置进程可能拥有的内存映射区域的最大数量。它的默认值是65530。虽然大多数应用程序需要少于一千个映射,但减少此值可能会导致异常行为,当进程达到限制时,系统会抛出内存不足错误。

RAGFlow v0.10.0使用Elasticsearch进行多次调用。正确设置vm.max_map_count的值对于Elasticsearch组件的正常运行至关重要。
具体操作

检查vm.max_map_count的值

sysctl vm.max_map_count

重置vm.max_map_count>=262144

sudo sysctl -w vm.max_map_count=262144

永久设置,写入/etc/sysctl.conf 配置文件中
利用winSCP打开/etc/sysctl.conf配置文件,将下面这句脚本写入配置文件最下端

vm.max_map_count=262144
写入效果图

注意:道理明白,不管用什么方式打开sysctl.conf配置文件,写入即可。

2、克隆RAGFLOW存储库

git clone https://github.com/infiniflow/ragflow.git

——————————————————
访问不了github.com,参考另篇博文解决
——————————————————

3、构建预构建的Docker映像并启动服务器

运行以下命令会自动下载开发版本RAGFlow Docker映像。

cd ragflow/docker
chmod +x ./entrypoint.sh
docker compose -f docker-compose.yml up -d

注意:镜像文件大约9GB,下载过程可能需要一些时间,请耐心等待。
————————————————
注意:这里拉取时间大概2个半小时(基于我的服务器性能,大家可参考)
如果拉取完成,部分容器启动错误,查看日志进行求助gpt,实在解决不了的话,可以选择所有东西(从docker部署开始)推倒重来一次,有了前面的操作经验,重新部署速度还行,问题也可得到解决,亲测有效。

2025-2-26 晚上 国内可用镜像源:
https://docker.1ms.run

————————————————

4、确认服务器状态

服务器启动成功后,通过以下命令查看服务器日志,确认服务器是否正常运行:

docker logs -f ragflow-server

部署成功截图
到此,基于 Ubuntu 22.04.5 LTS 、docker启动的ragflow部署完成。

三、Ollama上面拉取deepseek r1大模型

(1)打开ollama官网,点击models
引导图

(2)选择deepseek-r1,根据需要选择参数级别,复制对应的命令
引导图
—————————————————————
此处我选择的是deepseek-r1 7b的大模型
—————————————————————

(3)验证ollama是否正常运行,然后粘贴命令拉取大模型
正常运行
web浏览器输入【服务器IP+ollama端口11434】回车出现:Ollama is running则说明正常运行。
粘贴以下命令拉取deepseek-r1大模型

ollama run deepseek-r1:7b

拉取成功如下图所示:
拉取成功

四、在RAGFLOW中利用ollama添加deepseek-r1大模型

1.打开浏览器输入

http://localhost:80

注册登录账号
登录注册界面
登录后出现以下界面
登录后界面
配置ollama大模型,点击右上角头像,再点击模型提供商
配置
添加模型引导

如何选择url?
——————————————————————————
规则如下:
(1)Ollama和RAGFlow在同一台机器上运行,基本URL:

http://localhost:11434

(2)Ollama和RAGFlow在同一台机器上运行,并且Ollama或者RAGFLOW在Docker中,基本URL:

http://host.docker.internal:11434

(3)Ollama在与RAGFlow不同的机器上运行,基本URL:

http://<IP_OF_OLLAMA_MACHINE>:11434

注意大家根据自己实际情况填写!

———————————————————————————

添加成功如下如所示
添加成功

聊天中正常使用如下所示
聊天

五、RAGFLOW建立知识库,创建聊天(可更新)

到此,Deepseek+RAGFLOW部署教程结束!


http://www.kler.cn/a/563347.html

相关文章:

  • 使用PHP接入纯真IP库:实现IP地址地理位置查询
  • Flink JobManager不稳定的典型情景
  • Unity基础——资源导出分享为Unity Package
  • 设计模式之策略模式(Strategy Pattern)
  • LeetCode 热题 100 子串章节
  • AI DEV 人工智能能做的工作,在开发运维安全方面以及企业成本降低方面所起的作用和相应的提示词。
  • Java(五十八)双列集合Properties
  • AI 简史:人工智能发展历程
  • ubuntu上boost卸载和安装
  • vuetify项目添加代理跨域请求
  • 【无标题】oscp备考,oscp系列——Tr0ll1靶场,两种提权方式,ftp匿名登录,ssh爆破,ubuntu内核提权,计划任务
  • leetcode 169. 多数元素
  • 爬虫反爬:字体反爬案例分析与爬取实战
  • 记一次线上Tomcat服务内存溢出的问题处理
  • JVM生产环境问题定位与解决实战(二):JConsole、VisualVM到MAT的高级应用
  • 什么是完全前向保密(PFS)?
  • muduo网络库2
  • HTTP 动态报错码的原因和解决方法
  • 力扣——完全平方数
  • ChatGPT入驻Safari,AI搜索时代加速到来