当前位置: 首页 > article >正文

本地部署Deepseek+Cherry Studio

为啥要本地部署deepseek?

因为给deepseek发送指令得到服务器繁忙的回馈,本地部署会运行的更快

1.Ollama安装与部署

Ollama是一个开源框架,专为在本地机器上便捷部署和运行大型语言模型(LLM)而设计

win+R——cmd——ollama如下图显示,则安装ollama成功!

返回到Ollama 单击选择deepseek-R1

选择模型大小,建议选择7b的是电脑内存所定。复制命令到命令行

此时看到正在下载

安装完毕后可以试着向他提问测试一下,直接在命令控制行提问并不方便所以此时我们还需要下载Cherry Studio

2.Cherry Studio

Cherry Studio 是一个支持多模型服务的桌面客户端,为专业用户而打造,内置 30 多个行业的智能助手,帮助用户在多种场景下提升工作效率。Cherry Studio 内置了很多服务商,集成了超过 300 多个大语言模型。在使用过程中,你可以随意切换模型来回答问题,充分利用各个大模型的优势解决问题。Cherry Studio 支持 Windows 和 macOS 两大主流操作系统,未来还会支持移动平台。

选择刚在本地部署的deepseek-r1:7b

返回对话框选择ollama模型里的deepseek-r1:7b

 最后给deepseek发出指令就行了


http://www.kler.cn/a/566516.html

相关文章:

  • sklearn中的决策树-分类树:实例-分类树在合成数据集上的表现
  • 【MySQL】服务正在启动或停止中,请稍候片刻后再试一次【解决方案】
  • 2025中建二测笔试考什么?北森题库考点复习|附精华备考面试攻略
  • TCP/IP 5层协议簇:物理层
  • 重构清洁想象,石头科技首创五轴仿生机械手打破传统清洁边界
  • 自回归与自监督分别是什么,区别是什么
  • MySQL 索引介绍
  • 15.14 QLoRA量化低秩适配微调:华盛顿大学的显存优化革命
  • 冒泡排序算法详细介绍
  • 力扣——颜色分类
  • 工程化与框架系列(4)--Webpack 高级配置详解
  • spineNET模型详解及代码复现
  • 图数据库Neo4j面试内容整理-图遍历和最短路径
  • Vue中的数据代理与数据劫持
  • 处理大数据的架构模式:Lambda 架构 和 Kappa 架构
  • LangChain原理解析及开发实战指南(2025年最新版)
  • Scala 字符串插值的简单介绍
  • JVM为什么要设计STW机制?
  • 内存中的缓存区
  • 设计模式-单例、策略、代理、建造、工厂