使用 ollama 在 windows 系统本地部署 deepseek r1 模型
前言
很大一部分人在使用 deepseek 的时候会遇到服务器繁忙的情况,或者说很多人都想用自己的电脑跑 deepseek。
那么怎么解决呢?
这时候,我们的 ollama 就派上用场了。
如何部署?
首先,我们要去下载 ollama。官网链接
进去之后可以看到这样的界面:
先点击蓝箭头指的 Download 进行下载,然后进红箭头指的 deepseek-R1 来看看怎么回事。
你可以看到,这里有不同训练程度的 deepseek。(如 1.5b 7b 8b…)
b 代表 Billion(十亿)意思是训练量,量越大越智能。相应的配置要求就越高。
这里给大家列举一下场景(部分参考这篇博客):
-
DeepSeek-R1-1.5B
CPU:4 核
运行内存: 8GB 上下
场景:
家用
轻度实时文本生成
嵌入式系统或物联网设备 -
DeepSeek-R1-7B
CPU: 6 核
运行内存: 8GB 上下
显卡: 推荐 8GB+ 显存(如 RTX 3070/4060)
场景:
家用
本地开发测试
中等复杂度的文本摘要、翻译等任务
轻量级多轮对话系统 -
DeepSeek-R1-8B
硬件需求: 与 7B 相近,略高一点点
场景也与 7B 类似。 -
DeepSeek-R1-14B
CPU: 8 核以上
运行内存: 16GB+
显卡: 16GB+ 显存
场景:
复杂任务(合同分析、报告生成)
长文本理解与生成 -
DeepSeek-R1-32B
CPU: 16 核以上
内存: 32GB
显卡: 24GB+
场景:
高精度专业领域任务(医疗/法律咨询)
多模态任务预处理(需结合其他框架) -
DeepSeek-R1-70B
CPU: 32 核以上(服务器级 CPU)
内存: 64GB+
硬盘: 70GB+
显卡: A100?
场景:
科研机构/大型企业(金融预测、大规模数据分析)
高复杂度生成任务(创意写作、算法设计) -
DeepSeek-R1-671B
CPU: 64 核以上(服务器集群)
内存: 512GB+
硬盘: 300GB+
显卡: 多节点分布式训练
场景:
国家级/超大规模 AI 研究(如气候建模、基因组分析)
通用人工智能(AGI)探索
一般来说,1.5b 7b 8b 足矣。
回到 ollama,下载界面直接点 Install 就可以了。
(歪嘴小羊驼可爱捏)
下载完毕之后,我们打开 cmd,输入 ollama 就会出来一堆东西:
这里我们要用到 run 这个指令来执行一下我们刚刚选好的 deepseek-R1(这里用 7b 演示)。
这样它就会自动帮我们下载,下载好之后又会自动运行。
到这里就算安装完成了,然后就可以直接向它问问题。
后续如何使用?
直接用刚刚那条指令即可在后续使用。
就这样,按下回车即可与 AI 聊天。
性能测试
给大家看一下运行效果。
CPU 有点烧啊!
附上 deepseek 给出的代码:
#include <windows.h>
#include <messagebar.h> // 如果有消息框库的话,可以用更简洁的方式实现提示音效果
#include <directx.h> // 如果需要更高级的功能,可以考虑使用 DirectX
#define _USE_MATH_DEFINES
#include <cmath>
// 全局变量 declarations
static unsigned int width = 800;
static unsigned int height = 600;
static unsigned int foods = 20