手摸手系列之 DeepSeek-R1 开源大模型私有化部署解决方案
最近,深度求索公司推出的 DeepSeek-R1 大语言模型(Large Language Model)引发业界广泛关注。该模型基于 MoE(Mixture of Experts)架构,在 MMLU、GSM8K 等基准测试中展现出卓越的推理能力和多任务处理性能。然而,由于使用人数过多,网页版时常出现服务器繁忙的情况,影响了大家的使用体验。别担心,今天就给大家带来本地私有化部署 DeepSeek R1 的全攻略,让你在自己的设备上畅享这一强大模型。
一、为什么要本地私有化部署
其实对于大部分用户来说,90% 的场景确实不需要本地模型。但如果你的电脑配置不错,且有以下这些情况的话,那么本地化部署的优势就会被充分体现。
- 数据隐私:本地部署确保数据不离开你的服务器,安全性更高。
- 定制化需求:可以根据业务需求灵活调整模型参数和功能。
- 离线使用:再也不用看“服务器繁忙”的脸色。
- 成本可控:长期使用比云服务更经济,尤其适合高频调用场景。
二、本地私有化部署教程
1. 安装 Ollama
Ollama 是一个大模型管理工具,能够帮助我们轻松地在本地运行和管理大模型。你可以前往 Ollama 官网[ 👉 点我直达]下载适合自己系统的版本,包括 Windows、MacOS 和 Linux。下载完成后,按照提示进行安装即可。
2. 选择并安装模型
在 Ollama 官网的 “Models” 页面,找到 “DeepSeek-R1” 模型。根据你的电脑配置,选择合适的模型版本。例如,如果你的电脑配置较高,可以选择 32b 或 14b 版本;如果配置相对较低,1.5b 版本也是一个不错的选择。选择好模型后,复制对应的安装指令,如 “ollama run deepseek-r1:32b”,然后在命令行窗口中运行该指令,等待模型下载完成。
我的 MacBook Pro 有点老配置较低,先拉取个 1.5b 跑跑
出现 success
说明 pull 成功
3. 安装可视化 UI 界面
浏览器扩展商店搜索 Page Assist
并安装
右上角设置界面,RAG 设置里选择下载的模型
支持语音和图片
三、写在最后
总得来说,通过 Ollama 私有化部署本地大模型非常简单,如果你的电脑配置较高也可以运行参数量较大的模型。在完成本地部署后,能够开展诸多饶有趣味且颇具价值的事。例如,将其集成至 Cursor 之中,如此便能够拥有一款离线且免费的 AI 编程工具;还可以着手开发自动化工具,将其用作私人知识库。而且更关键的是,整个使用过程完全免费,即便处于断网状态也能正常使用。