当前位置: 首页 > article >正文

如何在本地部署deepseek-r1模型【详细步骤】

        引言:最近在跟几个朋友聊到企业AI应用的时候,发现我们虽然一直在使用各种大模型提供的端侧应用,聊天APP等,但是对很多企业来说,私有数据不方便上传至公网,提问记录也不希望被公网记录。当然还有一个重要的原因就是Token的消耗。当然大部分企业也不会投入大成本进行大模型的训练,由此在本地部署LLM,也是一个比较迫切的需求。很多人也想在自己机器上部署大模型,创建自己的模型,今天咱们就以deepseek-r1模型为例,使用Ollama部署本地模型。

    首先简单介绍下Ollama,一个开源工具,专为在本地机器上便捷部署和运行大型语言模型(LLM)而设计。能帮助我们在自己的设备上加载、运行和交互各种LLM模型,deepseek也不例外。

    接下来我们就要使用Ollama来本地部署deepseek-r1模型。步骤超简单,有手就会。

Step1: 下载安装Ollama

进入Ollama官网,https://ollama.com/ 不用梯子,直接可访问。如图

点击 Download ,选择自己的操作系统,下载Ollama,我这里选择的是macOS。

macOS下载的zip文件大约180M,解压后,傻瓜式的next,直到安装完成。

安装完成后,在命令行(windows下是cmd窗口)输入:ollama ,如果出现下图中的提示,说明安装完成。

 

Step2: 下载deepseek-r1 模型

进入Ollama官网,点击Models,排名第一的就是deepseek-r1模型。你也可以在这里搜索其他感兴趣的模型。

点击模型名字后,进去模型详情界面,先选择模型参数,默认是7b, 可根据自己的机器配置选择相应的模型大小,我机器比较菜,为了快速验证,我选的是1.5b。选择完模型参数后,点击右边的复制按钮,复制模型运行命令。

 

然后将命令粘贴到命令窗口运行,就开始下载模型了。根据模型大小和网速,估计要20分钟左右,出现如下窗口,就说明下载完成了,就可以直接输入消息进行本地模型对话了。

 

Step3: 进行对话

对话示例

<think> 部分是deepseek-r1模型的思考过程,</think> 下面是具体输出的回答。

通过以上简单三步操作,你就拥有本地的deepseek-r1模型啦,快动手试试吧。

 


http://www.kler.cn/a/526551.html

相关文章:

  • idea修改模块名导致程序编译出错
  • GitHub Actions定时任务配置完全指南:从Cron语法到实战示例
  • JavaScript系列(50)--编译器实现详解
  • Java实现.env文件读取敏感数据
  • 安装zsh并美化
  • Maui学习笔记- SQLite简单使用案例02添加详情页
  • Java8_StreamAPI
  • LruCache实现
  • 【gRPC-gateway】option定义规则及HttpBody响应
  • leetcode——翻转二叉树(java)
  • 【网络】3.HTTP(讲解HTTP协议和写HTTP服务)
  • 《Windows 11轻松设置:一键优化系统,提升电脑效率》
  • Three.js实现3D动态心形与粒子背景的数学与代码映射解析
  • 变量声明是否可以放在语句之后?变量声明?声明变量一定需要指定类型吗?函数范围快捷使用临时变量?
  • 低代码产品插件功能一览
  • 火语言RPA--Http请求
  • 《Origin画百图》之同心环图
  • 大数据相关职位 职业进阶路径
  • 【重生之我在学习C语言指针详解】
  • 视频编辑系列——Shotcut如何裁切视频黑边并放大画面导出
  • 【练习】PAT 乙 1027 打印沙漏
  • python-leetcode-填充每个节点的下一个右侧节点指针 II
  • 基于阿里云百炼大模型Sensevoice-1的语音识别与文本保存工具开发
  • 【Numpy核心编程攻略:Python数据处理、分析详解与科学计算】1.20 极值追踪:高效获取数据特征的秘诀
  • TypeScript 学习 - 单元测试
  • C++ 指针