当前位置: 首页 > article >正文

DeepSeek-R1 本地部署教程(超简版)

文章目录

  • 一、DeepSeek相关网站
  • 二、DeepSeek-R1硬件要求
  • 三、本地部署DeepSeek-R1
    • 1. 安装Ollama
      • 1.1 Windows
      • 1.2 Linux
      • 1.3 macOS
    • 2. 下载和运行DeepSeek模型
    • 3. 列出本地已下载的模型
  • 四、Ollama命令大全
  • 五、常见问题解决
  • 附:DeepSeek模型资源


一、DeepSeek相关网站

官方网站:DeepSeek

开源模型:https://huggingface.co/deepseek-ai

GitHub地址:https://github.com/deepseek-ai

接口文档:首次调用 API | DeepSeek API 文档

二、DeepSeek-R1硬件要求

以下是 DeepSeek-R1 系列模型在不同规模下的硬件需求(以 Q4_K_M 量化 为例)。这些需求是估算值,实际需求可能因实现方式和上下文长度而有所不同:

模型规模显存需求 (Q4_K_M)硬件需求说明
1.5B~1.5 GB轻量级,适合大多数消费级 GPU(如 GTX 1060 以上)
7B4.7 GB示例数据(Q4_K_M 量化),需要中端 GPU(如 RTX 3060)
8B~5.4 GB略高于 7B,适合 RTX 3060/3070
14B~9.4 GB需要高端消费级 GPU(如 RTX 3080/3090)
32B~21.5 GB需要专业级 GPU(如 A100 或 3090 24GB)
70B~47 GB通常需要多 GPU 或 云服务器(如 A100 40GB)
671B~450 GB仅适合分布式系统或超大规模集群

说明:

  1. 量化方式:假设使用 4-bit 量化(Q4_K_M),显存需求较低。如果使用 FP16/32,显存需求会大幅增加(如 7B FP16 需要约 14 GB)。

  2. 硬件建议
    1.5B-14B:适合消费级 GPU,如 RTX 3060/3080。
    32B-70B:需要专业级 GPU 或多 GPU 并行。
    671B:仅适合超大规模集群或分布式系统。

  3. 上下文长度:长上下文会进一步增加显存需求,建议根据实际场景调整硬件配置。

如果需要更高精度(如 FP16/32)的显存需求,可以按比例估算(FP16 约为 Q4_K_M 的 4 倍)

三、本地部署DeepSeek-R1

1. 安装Ollama

https://ollama.com/download

根据你的操作系统选择安装方式:

在这里插入图片描述

1.1 Windows

  1. 访问 https://ollama.com/download/windows 下载Windows安装程序。
  2. 双击安装,完成后在命令行输入 ollama 验证。

1.2 Linux

curl -fsSL https://ollama.ai/install.sh | sh

1.3 macOS

方式1:直接下载安装,访问 https://ollama.com/download/mac 下载macOS安装包,双击安装。

方式2:Homebrew 安装

brew install ollama

2. 下载和运行DeepSeek模型

访问 ollama 网站 deepseek-r1 各个版本:https://ollama.com/library/deepseek-r1

在这里插入图片描述

选择电脑符合条件的模型规模,复制命令。

  • 方式一:直接运行

以使用70b为例,打开命令行粘贴或输入:

ollama run deepseek-r1:70b

在这里插入图片描述

当我们没有该模型时会自动下载并运行,如果已经下载完成,运行该命令则直接启动。

运行后出现以下提示表示成功:

>>> Send a message (/? for help)

  • 方式二:下载并部署

拉取的过程后面可能会很慢,对于 linux 和 mac 使用挂在后台拉取:

nohup ollama pull deepseek-r1:70b &

3. 列出本地已下载的模型

ollama list

在这里插入图片描述

四、Ollama命令大全

命令描述示例
ollama run [model-name]启动模型并与之交互ollama run deepseek-r1:7b
ollama list列出本地已下载的模型ollama list
ollama pull [model-name]从模型库中下载一个模型ollama pull deepseek-r1:7b
ollama rm [model-name]删除本地的一个模型ollama rm deepseek-r1:7b
ollama show [model-name]查看某个模型的详细信息ollama show deepseek-r1:7b
ollama serve启动 Ollama 服务ollama serve
ollama stop停止 Ollama 服务ollama stop
ollama logs查看 Ollama 的日志信息ollama logs
ollama create [model-name] -f [config-file]使用自定义的模型配置文件创建模型ollama create deepseek-r1:7b -f ./my-model-config.yaml
ollama export [model-name] [output-file]导出模型为文件ollama export deepseek-r1:7b ./llama2-model.tar
ollama import [input-file]从文件导入模型ollama import ./llama2-model.tar
ollama version查看 Ollama 的版本信息ollama version
ollama --help查看所有可用的命令及其说明ollama --help

五、常见问题解决

  • 模型不存在?
    确认模型名称正确,或访问DeepSeek官网获取最新模型名称。
  • 网络问题
    配置代理(Linux/macOS):
    export HTTP_PROXY=http://127.0.0.1:7890
    export HTTPS_PROXY=http://127.0.0.1:7890

附:DeepSeek模型资源

  • DeepSeek-R1:https://github.com/deepseek-ai/DeepSeek-R1
  • 官方模型库:https://huggingface.co/deepseek-ai
  • Ollama文档:https://github.com/ollama/ollama

http://www.kler.cn/a/531901.html

相关文章:

  • opencv图像处理框架
  • deep generative model stanford lecture note3 --- latent variable
  • FBX SDK的使用:基础知识
  • Linux命令入门
  • docker直接运行arm下的docker
  • 图论——最小生成树
  • SwiftUI 在 Xcode 预览修改视图 FetchedResults 对象的属性时为什么会崩溃?
  • DRM系列七:Drm之CREATE_DUMB
  • C++(进阶) 第8章unordered_map和unordered_set的使⽤(哈希)
  • 基于STM32景区环境监测系统的设计与实现(论文+源码)
  • 分布式数据库架构与实践:原理、设计与优化
  • 3 卷积神经网络CNN
  • ES6 入门教程:箭头函数、解构赋值及其他新特性详解
  • Gurobi求解旅行商问题的官方例程
  • 计网week3
  • 【LeetCode 刷题】回溯算法(5)-棋盘问题
  • Linux线程 —— 生产消费模型
  • 存储器知识点3
  • 优选算法的灵动之章:双指针专题(一)
  • 算法设计-0-1背包动态规划(C++)
  • 4.[ISITDTU 2019]EasyPHP
  • Nginx笔记220825
  • 机器学习day7
  • 红黑树的封装
  • 680.验证回文串||
  • 基于“蘑菇书”的强化学习知识点(二):强化学习中基于策略(Policy-Based)和基于价值(Value-Based)方法的区别