零基础都可以本地部署Deepseek R1
文章目录
- 一、硬件配置需求
- 二、详细部署步骤
- 1. 安装 Ollama 工具
- 2. 部署 DeepSeek-R1 模型
- 3. API使用
- 4. 配置图形化交互界面(可选)
- 5. 使用与注意事项
一、硬件配置需求
不同版本的 DeepSeek-R1 模型参数量不同,对硬件资源的要求也不尽相同。常见版本及推荐配置大致如下(仅供参考,实际需求应根据使用场景和性能预期调整):
模型版本 | CPU配置 | 内存要求 | 硬盘空间 | 显卡配置 | 适用场景 |
---|---|---|---|---|---|
DeepSeek-R1-1.5B | 最低4核(推荐Intel/AMD多核处理器) | 8GB+ | 3GB+ | 非必需(纯CPU推理),若GPU加速可选4GB+显存(如GTX 1650) | 低资源设备部署,如树莓派、旧款笔记本、嵌入式系统或物联网设备 |
DeepSeek-R1-7B | 8核以上(推荐现代多核CPU) | 16GB+ | 8GB+ | 推荐8GB+显存(如RTX 3070/4060) | 中小型企业本地开发测试、中等复杂度NLP任务,例如文本摘要、翻译、轻量级多轮对话系统 |
DeepSeek-R1-8B | 8核以上(推荐现代多核CPU) | 16GB+ | 8GB+ | 推荐8GB+显存(如RTX 3070/4060) | 需更高精度的轻量级任务(如代码生成、逻辑推理) |
DeepSeek-R1-14B | 12核以上 | 32GB+ | 15GB+ | 16GB+显存(如RTX 4090或A5000) | 企业级复杂任务、长文本理解与生成 |
DeepSeek-R1-32B | 16核以上(如AMD Ryzen 9或Intel i9) | 64GB+ | 30GB+ | 24GB+显存(如A100 40GB或双卡RTX 3090) | 高精度专业领域任务、多模态任务预处理 |
DeepSeek-R1-70B | 32核以上(服务器级CPU) | 128GB+ | 70GB+ | 多卡并行(如2xA100 80GB或4xRTX 4090) | 科研机构/大型企业、高复杂度生成任务 |
DeepSeek-R1-671B | 64核以上(服务器集群) | 512GB+ | 300GB+ | 多节点分布式训练(如8xA100/H100) | 超大规模AI研究、通用人工智能(AGI)探索 |
对于大多数家用或工作站级别的电脑,运行 1.5b 至 7b 版本已基本满足体验需求,而更高参数的版本则适合服务器或高端工作站使用。
二、详细部署步骤
以下介绍基于 Windows 环境的一个典型部署流程,其他系统(如 Linux 或 macOS)基本类似,主要区别在安装包和命令行工具上。
1. 安装 Ollama 工具
Ollama 是一个用于管理和运行本地大模型的命令行工具,可从其官网下载安装包。步骤如下:
-
下载
访问 Ollama 官网并选择与你操作系统匹配的版本进行下载。
-
安装
运行下载的安装程序(例如 Windows 下双击 .exe 文件),完成安装后打开 CMD 或 PowerShell,输入以下命令验证安装成功:
ollama -v
若返回版本号(例如 0.5.7),则说明安装成功。
2. 部署 DeepSeek-R1 模型
-
选择模型版本
在 Ollama 官网首页或其模型库中点击左上角的 “Models”,找到 “deepseek-r1” 模型。页面中会展示多个版本(1.5b、7b、8b、14b 等),你需要根据自己的硬件配置选择合适版本。例如,若你的 GPU 为 RTX 3060 12GB,建议选用 1.5b 至 14b 版本。 -
复制运行命令
页面中会提供类似下面的命令:ollama run deepseek-r1:1.5b
复制对应版本的命令。
-
下载与安装
打开 CMD 或 PowerShell,粘贴并运行上面的命令。此时工具会自动下载模型文件并安装。下载过程中注意网络状况,若下载速度较慢,可适时中断后重启命令。 -
验证模型运行
下载完成后,在同一命令行窗口中,你可以直接输入问题(例如输入“上海在哪”),若模型能够返回答案,则说明部署成功。
3. API使用
ollama API官方文档
ollama运行后默认的路径是http://localhost:11434
curl -X POST "http://localhost:11434/api/generate" \
-H "Content-Type: application/json" \
-d '{
"model": "deepseek-r1:1.5b",
"prompt": "上海在哪",
"stream":false #如需流式返回,取消该参数默认为流式
}'
{
"model": "deepseek-r1:1.5b",
"created_at": "2025-02-08T14:13:30.203344Z",
"response": "\u003cthink\u003e\n\n\u003c/think\u003e\n\n上海是中国的一个直辖市,位于中国的东部沿海地区。具体位置是 longitude 121°38'东,latitude 31°25'北。它的城市、工业中心和国际都市特征使其在世界范围内拥有重要的影响力。",
"done": true,
"done_reason": "stop",
"context": [151644,100633,109333,151645,151648,271,151649,271,100633,105196,104111,116866,3837,103987,105538,106565,107815,100361,1773,100398,81812,20412,20515,220,16,17,16,11616,18,23,6,67364,3837,23718,220,18,16,11616,17,20,6,48309,1773,104121,99490,5373,100159,99488,33108,99876,101478,104363,102989,18493,99489,104589,103926,100799,102484,1773],
"total_duration": 1758949417,
"load_duration": 570749542,
"prompt_eval_count": 5,
"prompt_eval_duration": 755000000,
"eval_count": 57,
"eval_duration": 431000000
}
\u003cthink\u003e\n\n\u003c/think\u003es其实就是和
标签,里边是思考推理的内容,比较简单的问题无需推理,所以这里为空。我们问一个相对较难的问题来试试:
如果去掉stream为false后的流式返回如下:
直到done为true,done reason为stop为止
4. 配置图形化交互界面(可选)
虽然直接在命令行中对话已经能验证模型运行,但为了更友好地交互,你可以安装图形化界面工具:
-
下载 Chatbox:访问 Chatbox 官网 下载并安装该软件。
-
在 Chatbox 的设置中,选择使用本地模型,并将模型提供方设置为 Ollama API;在模型列表中选择你刚安装的 DeepSeek-R1 模型即可。
然后即可对话
5. 使用与注意事项
-
每次使用时:若需要使用模型,只需先启动 Ollama(通常在安装时会自动后台运行),然后通过命令行或图形界面调用模型。你可以使用命令
ollama list
查看已安装的模型列表,并通过ollama run <模型名称>
重新启动对话会话。 -
资源消耗:注意大模型运行时对 CPU、内存和 GPU 的负载较高,建议在使用过程中避免同时进行高负载任务。
-
升级与卸载
如果以后不再使用模型,需要按照相关说明清理模型文件和环境变量,避免占用过多磁盘空间。