目录
- 环境准备
- 安装 Ollama
- 部署 Deepseek-R1 模型
- 安装可视化聊天工具
- 使用指南
- 常见问题
环境准备
- 操作系统:推荐 Linux/macOS/Windows 10+
- 硬件要求:
- RAM ≥ 32GB(FP16版本)
- 显存 ≥ 24GB(如需GPU加速)
- 硬盘空间 ≥ 40GB
- 网络:可访问 Hugging Face 模型仓库
安装 Ollama
macOS/Linux
curl -fsSL https://ollama.com/install.sh | sh
Windows(PowerShell)
irm https://ollama.com/install.ps1 | iex
验证安装
ollama serve
部署 Deepseek-R1 模型
方法一:直接拉取(官方支持时)
ollama pull deepseek-r1
方法二:手动部署(需自定义Modelfile)
- 下载模型文件(Hugging Face格式)
- 创建
Modelfile
:
FROM ./deepseek-r1-gguf-model.Q4_K_M.gguf
PARAMETER num_ctx 4096
PARAMETER temperature 0.7
SYSTEM """
You are Deepseek-R1, a helpful AI assistant.
"""
- 创建模型:
ollama create deepseek-r1 -f Modelfile
安装可视化聊天工具
选项一:Open WebUI(推荐)
docker run -d -p 3000:8080 \
-v ollama:/root/.ollama \
-v open-webui:/app/backend/data \
--name ollama-webui \
ghcr.io/open-webui/open-webui:main
选项二:Lobe Chat
npm install -g @lobehub/chat
lobe-chat --api http://localhost:11434
使用指南
- 启动 Ollama 服务:
ollama serve
- 运行聊天工具:
浏览器访问 http://localhost:3000
lobe-chat --api http://localhost:11434
- 选择模型:
- 模型列表选择
deepseek-r1
- 调整温度参数(0.1-1.0)
常见问题
1. 模型无法加载
- 检查模型文件哈希值
- 确保显存/RAM充足
- 尝试量化版本(Q4/Q5)
2. 响应速度慢
OLLAMA_CMAKE_ARGS="-DLLAMA_CUBLAS=on" ollama serve
3. 聊天工具连接失败
- 检查防火墙设置
- 确认Ollama API地址(默认:http://localhost:11434)