当前位置: 首页 > article >正文

Deepseek R1 模型本地部署(ollama+cherry studio)详细指南! 个人知识库搭建与使用

前言

在这里插入图片描述]

主要用到的工具

  • ollama
  • cherry studio

主要步骤

  1. 使用Ollama安装DeepSeek-R1模型
  2. 使用Cherry Studio客户端进行模型配置

1. Ollama安装

Ollama 教程 Ollama 是一个开源的本地大语言模型运行框架,专为在本地机器上便捷部署和运行大型语言模型(LLM)而设计。 Ollama 支持多种操作系统,包括 macOS、Windows、Linux 以及通过 Docker 容器运行。

下载ollama

链接: https://ollama.com/download/

在这里插入图片描述

默认为当前电脑的对应的版本,直接下载即可。下载以后,一路点点点即可。
在这里插入图片描述

验证

打开命令行, 输入ollama

在这里插入图片描述

表示安装成功

环境变量设置

在这里插入图片描述

环境变量说明

  • OLLAMA_HOST:这个变量定义了Ollama监听的网络接口。通过设置OLLAMA_HOST=0.0.0.0,我们可以让Ollama监听所有可用的网络接口,从而允许外部网络访问。
  • OLLAMA_MODELS:这个变量指定了模型镜像的存储路径
  • OLLAMA_KEEP_ALIVE:这个变量控制模型在内存中的存活时间。设置OLLAMA_KEEP_ALIVE=24h可以让模型在内存中保持24小时,提高访问速度。
  • OLLAMA_PORT:这个变量允许我们更改Ollama的默认端口。例如,设置OLLAMA_PORT=8080可以将服务端口从默认的11434更改为8080。
  • OLLAMA_NUM_PARALLEL:这个变量决定了Ollama可以同时处理的用户请求数量。设置OLLAMA_NUM_PARALLEL=4可以让Ollama同时处理两个并发请求。
  • OLLAMA_MAX_LOADED_MODELS:这个变量限制了Ollama可以同时加载的模型数量。设置OLLAMA_MAX_LOADED_MODELS=4可以确保系统资源得到合理分配。

2.安装DeepSeek模型

通过Ollama安装模型, 首先打开deepseek-r1的模型安装界面
在这里插入图片描述
我们看到deepseek-r1由很多版本的模型规模,应该怎么选择呢,我们直接问下DeepSeek,看下他的建议


DeepSeek-R1 模型选择建议

这里是deepseek的回答

模型规模最低配置要求推荐配置要求备注
1.5B- CPU:4核(Intel i5 或 AMD Ryzen 5)
- 内存:8GB
- 显卡:集成显卡(无 GPU 加速)
- CPU:4核(Intel i7 或 AMD Ryzen 7)
- 内存:16GB
- 显卡:GTX 1050(2GB 显存)
适合低配置设备,运行速度快,但能力有限。
8B- CPU:8核(Intel i7 或 AMD Ryzen 7)
- 内存:16GB
- 显卡:GTX 1650(4GB 显存)
- CPU:8核(Intel i9 或 AMD Ryzen 9)
- 内存:32GB
- 显卡:RTX 2060(6GB 显存)
平衡了性能和资源消耗,适合中等配置设备。
14B- CPU:12核(Intel i9 或 AMD Ryzen 9)
- 内存:32GB
- 显卡:RTX 3060(12GB 显存)
- CPU:16核(Intel Xeon 或 AMD Threadripper)
- 内存:64GB
- 显卡:RTX 3090(24GB 显存)
需要较高的内存和计算能力,适合高性能设备。
32B- CPU:16核(Intel Xeon 或 AMD Threadripper)
- 内存:64GB
- 显卡:RTX 3090(24GB 显存)
- CPU:24核(Intel Xeon 或 AMD Threadripper)
- 内存:128GB
- 显卡:A100(40GB 显存)
对硬件要求较高,普通电脑难以流畅运行。
70B- CPU:32核(Intel Xeon 或 AMD Threadripper)
- 内存:128GB
- 显卡:A100(40GB 显存)
- CPU:64核(Intel Xeon 或 AMD Threadripper)
- 内存:256GB
- 显卡:多 GPU(A100 或 H100)
需要专业级硬件,普通电脑无法运行。
671B- CPU:64核(Intel Xeon 或 AMD Threadripper)
- 内存:256GB
- 显卡:多 GPU(A100 或 H100)
- CPU:128核(Intel Xeon 或 AMD Threadripper)
- 内存:512GB
- 显卡:多 GPU(A100 或 H100)
需要服务器级硬件,普通电脑无法运行。

安装语言模型

这里方便测试,先安装个最小的模型1.5b

# 下载模型
ollama pull deepseek-r1:1.5b
# 下载或运行模型,正常ollama不会运行模型的
ollama run deepseek-r1:1.5b

在这里插入图片描述

安装向量模型

基于本地的deepseek搭建个人知识库。使用本地服务,安装嵌入模型,用于将文本数据转换为向量标识的模型。

需要先下载向量模型

# 命令行窗口执行拉取下即可。
ollama pull bge-m3

在这里插入图片描述

至此,我们本地所需的模型就下载完毕了。

接下来我们需要找一个支持多模型服务的桌面客户端。当然这里我们选择的是cherry studio


基于Cherry Studio搭建

  • 🍒 Cherry Studio 是一款支持多模型服务的桌面客户端,内置了超过 30 个行业的智能助手,旨在帮助用户在多种场景下提升工作效率。它适用于 Windows、Mac 和 Linux 系统,无需复杂设置即可使用。
  • 🚀 Cherry Studio 集成了主流的 LLM 云服务和 AI Web 服务,同时支持本地模型运行。
  • 🌟 Cherry Studio 提供了诸如完整的 Markdown 渲染、智能体创建、翻译功能、文件上传和多模态对话等个性化功能,并具有友好的界面设计和灵活的主题选项,旨在为用户提供全面而高效的 AI 交互体验。

cherry studio官网

在这里插入图片描述

这里下载进行安装cherry studio


本地模型知识库配置

配置本地ollama

在这里插入图片描述
在这里插入图片描述

配置在线模型(硅基流动)

  1. 注册华为旗下硅基流动
  2. 新建一个API密钥
  3. 记录核心模型标识
deepseek-ai/DeepSeek-R1
deepseek-ai/DeepSeek-V3
Qwen/Qwen2.5-72B-Instruct-128K

在这里插入图片描述
依次添加模型deepseek-ai/DeepSeek-R1、deepseek-ai/DeepSeek-V3、Qwen/Qwen2.5-72B-Instruct-128K,自带的需要都删除掉。
在这里插入图片描述
在这里插入图片描述

在这里插入图片描述


最后添加需要学习的本地知识库
在这里插入图片描述
最后点击智能体,新加个智能体试一下吧!


http://www.kler.cn/a/546307.html

相关文章:

  • TDengine 性能测试工具 taosBenchmark
  • 【1min 快速上手 Unity 基本使用方法】外部模型使用
  • 【操作系统】深入理解Linux物理内存
  • mysql 参数max_connect_errors研究
  • CEYEE希亦除螨仪重塑专业级深层除螨,被誉为高端除螨仪的新标杆!
  • 问界M8细节曝光,L3自动驾驶有了!
  • 强化学习《初学者》
  • twisted实现MMORPG 游戏数据库操作封装设计与实现
  • 行内元素和块级元素
  • CP AUTOSAR标准之GPTDriver(AUTOSAR_SWS_GPTDriver)(更新中……)
  • 自动从 Gitee 同步到 GitHub
  • STM32操作FLASH
  • C++17 中的 std::reduce:详细教程
  • 【深度强化学习】策略梯度算法:REINFORCE
  • ChatGPT vs DeepSeek详细对比
  • 网络安全学习架构 网络安全架构内容
  • DeepSeek R1 671b 满血版部署笔记
  • cap4:YoloV5的TensorRT部署指南(python版)
  • 国家2025年数字化污水厂政策与视频孪生赋能智慧污水厂建设
  • redis之lua实现原理