DeepSeek的本地化部署
一、资源选择和准备
DeepSeek
作为国产开源大模型,近期因在线服务压力过大,本地部署需求激增。本教程将结合全网优质资源,手把手教你完成从环境配置到交互界面搭建的全流程,即使是零基础用户也能轻松掌握。
1.1 为什么要部署本地 DeepSeek?
在本地部署 DeepSeek 有以下几个优势:
- 隐私性高:数据都在本地运行,无需上传到云端,避免数据泄露风险。
- 稳定性强:不受网络波动影响,模型运行更加稳定。
- 可定制性强:可以根据需求调整模型参数,满足个性化需求。
1.2 DeepSeek 不同版本模型硬件要求
1.3 测试机配置
-
内存
-
显卡
二、安装和调试
2.1 下载并安装Ollama
-
访问官网:https://ollama.com/ 下载
-
安装,双击OllamaSetup.exe文件,安装即可
2.2 检验ollama是否安装成功
2.3 通过 Ollama 拉取 DeepSeek 模型
这里我选择是的1.5b,整个模型大小1.1 GB。https://ollama.com/library/deepseek-r1:1.5b
- 1.5B:适用于轻量级任务,如边缘设备(如智能手表、物联网设备)上的简单交互、小型智能问答系统等。目前开源的最小版本。
- 671B:主要用于大规模云端推理,适合科研分析、数据挖掘等需要处理海量数据的复杂任务。目前开源的最强版本。
- 更多版本可以在这里查看:https://ollama.com/library/deepseek-r1 。
-
命令行输入:
ollama run deepseek-r1:1.5b
拉取DeepSeek模型
-
安装完成窗口截图
三、使用教程示例
完成上面步骤之后,我们就可以愉快的与Deep Seek对话了,如输入:程序员如何避免35岁焦虑?
3.1 应用原生窗口
原生窗口是terminal形式的,使用起来并不友好。
3.2 安装WebUI窗口
使用命令提示符与DeepSeek对话并不友好,为了更好的体验,我们可以安装WebUI
- 这里使用的是浏览器插件:Page Assit
启动ollama服务后,输入快捷键【ctrl + shift+L】快捷键即可打开WebUI页面。
-
刚安装Page Assit 插件, 需要进行一下如下设置:语言配置
-
使用示例,选择deepseek-r1:1.5b模型
四、应用场景
4.1 DeepSeek-R1-1.5B 能干啥?
别看 DeepSeek-R1-1.5B 体积小,它可一点都不“弱”。它非常适合用在一些轻量级的任务上,比如:
- 智能客服:在小型企业或者个人项目中,它可以快速回答客户的一些常见问题,提高服务效率。
- 语言学习:你可以用它来练习语言表达,比如输入一个中文句子,让它生成英文翻译。
- 创意写作:如果你是个作家或者文案策划,它可以帮你快速生成一些创意片段或者文案初稿
4.2 DeepSeek-R1-1.5B的优缺点
相比较网页版,本地部署不用担心服务器问题,不过坏处是,网页版可以选择深度思考,准确性更高,而且还能够联网搜索,功能更强大。不过本地部署的自由度更高,用户可以对模型推理过程进行调整,能够实现更丰富的功能。
如果你只是想体验一下,本地部署玩一玩是可以的,如果你想要准确的结果,对调试、硬件不是很了解的话,还是选择网页版吧。
五、参考文档
- https://www.cnblogs.com/xiezhr/p/18712410
- https://blog.csdn.net/qq_20890935/article/details/145563763
- https://news.qq.com/rain/a/20250217A09Z0W00