Deepseek+RAGFLOW部署教程
本篇教程为Deepseek+RAGFLOW详细部署
本篇主要基于linux服务器部署ragflow+deepseek,其他操作系统稍有差异但是大体一样。
——————————————————————————————————
前言说明:
Ubantu22系统部署RAGFLOW,在之前的博文中记录过,有需要的可以点击查看linux服务器部署ragflow+ollama
Ubantu系统离线部署ollama可参考博文基于linux服务器Ubantu20.04的离线Ollama安装(手动安装成功)
请注意区分ollama版本,最新的最好,至少要满足拉取需要模型的要求
————————————————————————————————
一、先决条件
CPU ≥ 4核;
RAM ≥ 16 GB;
磁盘 ≥ 50 GB;
Docker ≥ 24.0.0 & Docker Compose ≥ v2.26.1。
如果尚未在本地计算机(Windows、Mac或Linux)上安装Docker,请参阅安装Docker引擎。
——————————————————————
我的服务器系统 Ubuntu 22.04.5 LTS,16核CPU,32G内存,200G硬盘。
——————————————————————
二、启动RAGFLOW服务器
1、确保 vm.max_map_count ≥ 262144:
vm.max_map_count.此值设置进程可能拥有的内存映射区域的最大数量。它的默认值是65530。虽然大多数应用程序需要少于一千个映射,但减少此值可能会导致异常行为,当进程达到限制时,系统会抛出内存不足错误。
RAGFlow v0.10.0使用Elasticsearch进行多次调用。正确设置vm.max_map_count的值对于Elasticsearch组件的正常运行至关重要。
具体操作
检查vm.max_map_count的值
sysctl vm.max_map_count
重置vm.max_map_count>=262144
sudo sysctl -w vm.max_map_count=262144
永久设置,写入/etc/sysctl.conf 配置文件中
利用winSCP打开/etc/sysctl.conf配置文件,将下面这句脚本写入配置文件最下端
vm.max_map_count=262144
注意:道理明白,不管用什么方式打开sysctl.conf配置文件,写入即可。
2、克隆RAGFLOW存储库
git clone https://github.com/infiniflow/ragflow.git
——————————————————
访问不了github.com,参考另篇博文解决
——————————————————
3、构建预构建的Docker映像并启动服务器
运行以下命令会自动下载开发版本RAGFlow Docker映像。
cd ragflow/docker
chmod +x ./entrypoint.sh
docker compose -f docker-compose.yml up -d
注意:镜像文件大约9GB,下载过程可能需要一些时间,请耐心等待。
————————————————
注意:这里拉取时间大概2个半小时(基于我的服务器性能,大家可参考)
如果拉取完成,部分容器启动错误,查看日志进行求助gpt,实在解决不了的话,可以选择所有东西(从docker部署开始)推倒重来一次,有了前面的操作经验,重新部署速度还行,问题也可得到解决,亲测有效。
2025-2-26 晚上 国内可用镜像源:
https://docker.1ms.run
————————————————
4、确认服务器状态
服务器启动成功后,通过以下命令查看服务器日志,确认服务器是否正常运行:
docker logs -f ragflow-server
到此,基于 Ubuntu 22.04.5 LTS 、docker启动的ragflow部署完成。
三、Ollama上面拉取deepseek r1大模型
(1)打开ollama官网,点击models
(2)选择deepseek-r1,根据需要选择参数级别,复制对应的命令
—————————————————————
此处我选择的是deepseek-r1 7b的大模型
—————————————————————
(3)验证ollama是否正常运行,然后粘贴命令拉取大模型
web浏览器输入【服务器IP+ollama端口11434】回车出现:Ollama is running
则说明正常运行。
粘贴以下命令拉取deepseek-r1大模型
ollama run deepseek-r1:7b
拉取成功如下图所示:
四、在RAGFLOW中利用ollama添加deepseek-r1大模型
1.打开浏览器输入
http://localhost:80
注册登录账号
登录后出现以下界面
配置ollama大模型,点击右上角头像,再点击模型提供商
如何选择url?
——————————————————————————
规则如下:
(1)Ollama和RAGFlow在同一台机器上运行,基本URL:
http://localhost:11434
(2)Ollama和RAGFlow在同一台机器上运行,并且Ollama或者RAGFLOW在Docker中,基本URL:
http://host.docker.internal:11434
(3)Ollama在与RAGFlow不同的机器上运行,基本URL:
http://<IP_OF_OLLAMA_MACHINE>:11434
注意大家根据自己实际情况填写!
———————————————————————————
添加成功如下如所示
聊天中正常使用如下所示
五、RAGFLOW建立知识库,创建聊天(可更新)
到此,Deepseek+RAGFLOW部署教程结束!