Deepseek R1 模型本地部署(ollama+cherry studio)详细指南! 个人知识库搭建与使用
前言
]
主要用到的工具
- ollama
- cherry studio
主要步骤
- 使用Ollama安装DeepSeek-R1模型
- 使用Cherry Studio客户端进行模型配置
1. Ollama安装
Ollama 教程 Ollama 是一个开源的本地大语言模型运行框架,专为在本地机器上便捷部署和运行大型语言模型(LLM)而设计。 Ollama 支持多种操作系统,包括 macOS、Windows、Linux 以及通过 Docker 容器运行。
下载ollama
链接: https://ollama.com/download/
默认为当前电脑的对应的版本,直接下载即可。下载以后,一路点点点即可。
验证
打开命令行, 输入ollama
表示安装成功
环境变量设置
环境变量说明
- OLLAMA_HOST:这个变量定义了Ollama监听的网络接口。通过设置OLLAMA_HOST=0.0.0.0,我们可以让Ollama监听所有可用的网络接口,从而允许外部网络访问。
- OLLAMA_MODELS:这个变量指定了模型镜像的存储路径。
- OLLAMA_KEEP_ALIVE:这个变量控制模型在内存中的存活时间。设置OLLAMA_KEEP_ALIVE=24h可以让模型在内存中保持24小时,提高访问速度。
- OLLAMA_PORT:这个变量允许我们更改Ollama的默认端口。例如,设置OLLAMA_PORT=8080可以将服务端口从默认的11434更改为8080。
- OLLAMA_NUM_PARALLEL:这个变量决定了Ollama可以同时处理的用户请求数量。设置OLLAMA_NUM_PARALLEL=4可以让Ollama同时处理两个并发请求。
- OLLAMA_MAX_LOADED_MODELS:这个变量限制了Ollama可以同时加载的模型数量。设置OLLAMA_MAX_LOADED_MODELS=4可以确保系统资源得到合理分配。
2.安装DeepSeek模型
通过Ollama安装模型, 首先打开deepseek-r1的模型安装界面
我们看到deepseek-r1由很多版本的模型规模,应该怎么选择呢,我们直接问下DeepSeek,看下他的建议
DeepSeek-R1 模型选择建议
这里是deepseek的回答
模型规模 | 最低配置要求 | 推荐配置要求 | 备注 |
---|---|---|---|
1.5B | - CPU:4核(Intel i5 或 AMD Ryzen 5) - 内存:8GB - 显卡:集成显卡(无 GPU 加速) | - CPU:4核(Intel i7 或 AMD Ryzen 7) - 内存:16GB - 显卡:GTX 1050(2GB 显存) | 适合低配置设备,运行速度快,但能力有限。 |
8B | - CPU:8核(Intel i7 或 AMD Ryzen 7) - 内存:16GB - 显卡:GTX 1650(4GB 显存) | - CPU:8核(Intel i9 或 AMD Ryzen 9) - 内存:32GB - 显卡:RTX 2060(6GB 显存) | 平衡了性能和资源消耗,适合中等配置设备。 |
14B | - CPU:12核(Intel i9 或 AMD Ryzen 9) - 内存:32GB - 显卡:RTX 3060(12GB 显存) | - CPU:16核(Intel Xeon 或 AMD Threadripper) - 内存:64GB - 显卡:RTX 3090(24GB 显存) | 需要较高的内存和计算能力,适合高性能设备。 |
32B | - CPU:16核(Intel Xeon 或 AMD Threadripper) - 内存:64GB - 显卡:RTX 3090(24GB 显存) | - CPU:24核(Intel Xeon 或 AMD Threadripper) - 内存:128GB - 显卡:A100(40GB 显存) | 对硬件要求较高,普通电脑难以流畅运行。 |
70B | - CPU:32核(Intel Xeon 或 AMD Threadripper) - 内存:128GB - 显卡:A100(40GB 显存) | - CPU:64核(Intel Xeon 或 AMD Threadripper) - 内存:256GB - 显卡:多 GPU(A100 或 H100) | 需要专业级硬件,普通电脑无法运行。 |
671B | - CPU:64核(Intel Xeon 或 AMD Threadripper) - 内存:256GB - 显卡:多 GPU(A100 或 H100) | - CPU:128核(Intel Xeon 或 AMD Threadripper) - 内存:512GB - 显卡:多 GPU(A100 或 H100) | 需要服务器级硬件,普通电脑无法运行。 |
安装语言模型
这里方便测试,先安装个最小的模型1.5b
# 下载模型
ollama pull deepseek-r1:1.5b
# 下载或运行模型,正常ollama不会运行模型的
ollama run deepseek-r1:1.5b
安装向量模型
基于本地的deepseek搭建个人知识库。使用本地服务,安装嵌入模型,用于将文本数据转换为向量标识的模型。
需要先下载向量模型
# 命令行窗口执行拉取下即可。
ollama pull bge-m3
至此,我们本地所需的模型就下载完毕了。
接下来我们需要找一个支持多模型服务的桌面客户端。当然这里我们选择的是cherry studio
基于Cherry Studio搭建
- 🍒 Cherry Studio 是一款支持多模型服务的桌面客户端,内置了超过 30 个行业的智能助手,旨在帮助用户在多种场景下提升工作效率。它适用于 Windows、Mac 和 Linux 系统,无需复杂设置即可使用。
- 🚀 Cherry Studio 集成了主流的 LLM 云服务和 AI Web 服务,同时支持本地模型运行。
- 🌟 Cherry Studio 提供了诸如完整的 Markdown 渲染、智能体创建、翻译功能、文件上传和多模态对话等个性化功能,并具有友好的界面设计和灵活的主题选项,旨在为用户提供全面而高效的 AI 交互体验。
cherry studio官网
这里下载进行安装cherry studio
本地模型知识库配置
配置本地ollama
配置在线模型(硅基流动)
- 注册华为旗下硅基流动
- 新建一个API密钥
- 记录核心模型标识
deepseek-ai/DeepSeek-R1
deepseek-ai/DeepSeek-V3
Qwen/Qwen2.5-72B-Instruct-128K
依次添加模型deepseek-ai/DeepSeek-R1、deepseek-ai/DeepSeek-V3、Qwen/Qwen2.5-72B-Instruct-128K,自带的需要都删除掉。
最后添加需要学习的本地知识库
最后点击智能体,新加个智能体试一下吧!