DeepSeek 与 Ollama:本地运行 AI 模型的完美组合
今天体验一把本地跑大模型,仅体验安装流程,并不是用实际生产。实际生产还是用 API 或网页版。
部署DeepSeek依赖 Ollama,它是一个开源的 LLM(大型语言模型)服务工具,用于简化在本地运行大语言模型。
1、安装 ollama
根据你的操作系统类型,选择合适的 Ollama 安装包。
🌵官方下载页
https://ollama.com/download
2、安装 deepseek-r1
根据你的电脑配置,可以选择不同参数的模型版本。普通配置的电脑可选择 7B 或 1.5B 的模型,而配置较高的电脑则可以选择更大参数的 32B 模型。
🌵模型下载网页
https://ollama.com/search
例如,选择 1.5B 的模型,可以通过以下命令进行部署:
ollama run deepseek-r1:1.5b
部署完成,可以提问了。
3、网页对话(可选)
直接使用 chrome 插件 page-assist,实现页面进行对话。
🌵page-assist 官方
https://github.com/n4ze3m/page-assist
4、MacOS 三行命令部署
因为我的系统是 MacOS,已安装了 brew,所以使用 brew 安装 ollama,当然本机部署只是体验过程,并不用于实际生产使用。
brew install ollama
ollama serve
ollama run deepseek-r1:1.5b
命令 1 是下载 Ollama
命令 2 是运行 Ollama服务,Ollama 需要一直后台运行。
命令 3 是下载/运行 DeepSeek 模型:需新打开一个命令窗口,执行命令 3。
这里使用的是 1.5b 参数的版本,大概需要 1.1G。
相关阅读
DeepSeek的魔法:如何让复杂概念变得通俗易懂?
高效使用 DeepSeek 的“七大”技巧,AI小白也能轻松上手!
免费使用 DeepSeek 全尺寸模型API,各享 100 万免费 tokens
DeepSeek V3 vs R1:到底哪个更适合你?全面对比来袭