DeepSeek-R1 Ollama部署+Cherry Studio,实现本地大模型知识库
本地知识库通常包含企业或机构的私有数据(如内部文档、客户档案、行业术语库等),这些数据涉及商业机密或敏感信息,若依赖云端服务处理,可能面临合规风险或第三方泄露隐患。通过DeepSeek本地化部署,DeepSeek可直接在内部服务器访问知识库,确保数据无需离开本地环境,既符合数据保护法规,又能通过内网隔离降低外部攻击风险。
本文将介绍如何通过Ollama实现DeepSeek的本地部署,并结合Cherry Studio,实现本地大模型知识库。
一、Ollama下载
登录Ollama官网(https://ollama.com/)点击Downloa,进入模型下载页面。
根据自己的电脑选择合适的系统,按照提示步骤进行安装即可。
二、下载DeepSeek模型与嵌入模型
输入命令:
ollama run deepseek-r1:7b
其中,7b表示模型的大小,可以根据实际情况选择更大或更小的模型。
要实现本地知识库的搭建,还需要一个词嵌入(Embedding)模型,在搭建本地知识库的过程中,选择合适的Embedding模型至关重要,因为Embedding模型直接影响了检索的效果与生成的质量。
我们选取mxbai-embed-large作为嵌入模型。
输入指令:
ollama pull mxbai-embed-large
等待模型下载完成。
三、下载Cherry Studio
进入Cherry Studio官网(https://cherry-ai.com/),点击下载客户端。
点击“立即下载”,即可下载windows版本的安装包,也可以点击“其他版本或备用路线下载”,下载其它系统的安装包,支持macOS和Linux。
按照提示进行安装即可。安装后打开Cherry Studio。
Cherry的组织逻辑如下:
1.助手:助手即智能体。打开Cherry Studio后,将默认选中“默认助手”,默认助手是不带有任何提示词的智能体,等同于直接跟LLM对话(跟在网页中对话效果一样)。Cherry Studio中支持通过提示词自定义建智能体。
2.话题:每个智能体下有多个话题。话题也就是会话每个话题中会记录多轮对话(跟在网页中的不同聊天记录一样)。
3.知识库:知识库由用户上传的资料组成,支持txt、html、md、docx、pptx、xlsx、pdf,等常见的文本格式,DeepSeek模型不支持图片。每个助手中的每个话题都可以对知识库进行调用。
四、配置模型与知识库
点击页面左下角的设置,点击模型服务,选择Ollama,点击管理。
这里将会自动加载Ollama中已下载的DeepSeek模型与嵌入模型,我们选择刚刚下载的模型,点击加号。
模型配置结束。
现在开始配置知识库。点击左侧的知识库图标,点击添加。
知识库的名称可以自定义,这里定义为课程PPT,嵌入模型选择刚刚配置好的Ollama嵌入模型。点击确定。
选择想要上传的文件,等待所有文件向量化完成(出现绿色对勾)后,知识库配置完毕。我们在这里上传《PyTorch计算机视觉与深度学习实战》的课程PPT,让模型在PPT中查阅信息。
五、开始对话
点击左侧第一个图标,进入对话页面,在对话框中点击知识库图标。
选择刚刚配置的知识库,选择完成后,图标将会显示蓝色。
输入@或点击下方的@图标,选择配置好的Ollama模型
接下来,对模型提出需求“请介绍第7章的基本内容”。从结果中可以看出,模型成功地检索出了第7章的PPT,并且介绍了第7章的主要内容。
如果不涉及隐私和机密信息,还可以尝试通过硅基流动,调用更大的模型,更大的模型效果更好。
我们选择硅基流动的DeepSeek-R1模型(首先要在模型服务中配置硅基流动的API key)。
可以看到,更大的模型实现了更好的效果,模型的回复中给出了精确的引用,并且更加全面的介绍了第7章的内容。
如果想要实现更好的知识库检索效果,可以尝试本地部署更大的模型。