本地部署 DeepSeek-R1 大模型指南:基于 Ollama 的完整流程
Ollama是什么
Ollama 是一个开源的大语言模型本地化部署与管理工具,支持:
一键式模型下载与版本管理
本地化模型推理服务部署
REST API 接口提供
多平台客户端接入支持
整体步骤
- 安装 Ollama
- Ollama服务配置
- 部署模型
- 客户端配置(Page Assist)(chrome插件)
详细步骤
环境说明
- Ubuntu系统 内存:16G CPU:AMD Ryzen 5 5600G 的集成显卡
- 网络需科学上网
- 防火墙关闭或者放行11434端口
安装Ollama
下载安装直接运行如下命令即可
# 使用官方安装脚本
curl -fsSL https://ollama.com/install.sh | sh
# 验证安装
ollama --version
ollama服务配置
- 停止 Ollama 服务:执行命令sudo systemctl stop ollama。
- 编辑 Ollama 服务文件:使用文本编辑器打开/etc/systemd/system/ollama.service文件。 在[Service]部分下,添加或修改一行内容为Environment=“OLLAMA_HOST=0.0.0.0”。
[Service]
ExecStart=/usr/local/bin/ollama serve
User=ollama
Group=ollama
Restart=always
RestartSec=3
Environment="PATH=/usr/local/sbin:/usr/local/bin:/usr/sbin:/usr/bin:/sbin:/bin:/usr/games:/usr/local/games:/snap/bin:/usr/local/go/bin:/usr/local/java/jdk1.8.0_361/bin:/usr/local/maven/apache-maven-3.8.2/bin"
# 设置监听地址(关键修改)
Environment="OLLAMA_HOST=0.0.0.0"
- 重载 daemon 文件:执行sudo systemctl daemon-reload,让系统重新加载服务配置文件。
- 启动 Ollama 服务:执行sudo systemctl start ollama,使新的配置生效
部署模型
ollama run deepseek-r1:8b
后面的8b 意思是80亿参数,根据具体的机器配置选择不同数量的参数。
验证模型
# 发送测试请求
curl http://localhost:11434/api/generate -d '{
"model": "deepseek-r1:8b",
"prompt": "请用五句话介绍量子计算",
"stream": false
}'
# 预期收到JSON格式响应,包含生成文本
客户端配置(Page Assist)
- 从 Chrome 应用商店安装 Page Assist 插件
- 打开插件设置
- 按照下图配置
总结
按照上面配置后,对话框选择相应模型,即可对话: 欢迎关注公众号:庄智曰
ollama常用命令
# 查看已安装的模型
ollama list
# 查看运行中的模型实例
ollama ps
# 拉取模型
ollama pull llama2
# 删除模型
ollama rm <模型名称>
# 运行模型,运行之后就可以进行对话
ollama run llama2
# 启动 Ollama 服务
ollama serve
deepseek模型列表
ollama run deepseek-r1:1.5b
ollama run deepseek-r1:8b
# 适合中等复杂度的任务,如文本生成、代码生成、翻译等。
ollama run deepseek-r1:7b
# 适合更复杂的任务,如长文本生成、逻辑推理等
ollama run deepseek-r1:14b
参考文献
ollama官网
本地部署 DeepSeek-R1 大模型!免费开源,媲美OpenAI-o1能力