一键部署Ollama deepSeek:科技赋能,轻松上手
1.Ollama安装步骤
第一:拉取 Ollama 镜像
docker pull swr.cn-north-4.myhuaweicloud.com/ddn-k8s/docker.io/ollama/ollama:latest
官方镜像源太慢,可以切到华为云的镜像源
第二:运行 Ollama 容器
拉取镜像成功后,你可以使用以下命令来运行 Ollama 容器
docker run -d -p 11434:8080 -v ollama_data:/root/.ollama --name ollama_deepseek ollama/ollama
这里的参数解释如下:
-d:以守护进程模式运行容器。
-p 11434:8080:将容器的 8080 端口映射到主机的 11434 端口。
-v ollama_data:/root/.ollama:创建一个名为 ollama_data 的卷,并将其挂载到容器的 /root/.ollama 目录。这将用于存储 Ollama 的数据和配置。
--name ollama_deepseek:为容器指定一个名称(在这里是 ollama_deepseek)
第三:验证Ollama安装
打开浏览器,访问 http://localhost:11434(或者你在 -p 参数中指定的其他端口)。如果看到 Ollama 的界面,则表示安装成功。
2.deepSeek安装
第一:登录ollama官网
第二:点击Models菜单,找到deepSeek
第三:点击deepSeek,选择1.5b版本
第四:复制deepSeek安装命令
第五:登录安装并运行了Ollama的linux机子,执行上一步复制的安装命令
安装成功,看到success后,随便输入一个句话,deepSeek有响应,即表示安装成功
deepSeek 1.5B版本仅做学习使用,企业使用推荐安装7B/8B模型。
deepSeek每个版本推荐的服务器配置如下图
deepSeek版本号,例如 1.5B、7B、8B.....有什么含义
DeepSeek的命名规则中,如1.5B、7B、8B、14B、32B、70B、671B等,这些数字代表模型的参数量(Parameters),单位为十亿(Billion)。具体来说:
- 1.5B代表模型拥有15亿参数。
- 7B代表模型拥有70亿参数。
- 8B代表模型拥有80亿参数。
- 14B代表模型拥有140亿参数。
- 32B代表模型拥有320亿参数。
- 70B代表模型拥有700亿参数。
- 671B代表模型拥有6710亿参数。
参数规模直接反映模型的复杂度和学习能力。通常,参数越多,模型对复杂模式的捕捉能力越强,但同时对硬件资源的需求也越高。不同参数规模的DeepSeek模型适用于不同的应用场景:
- 1.5B和7B版本的模型属于轻量级模型,低资源消耗,响应速度快,适合基础任务,如移动端应用(如手机助手)、实时客服、简单文本生成等。
- 8B版本在处理复杂自然语言理解任务方面表现更优。
- 14B和32B版本的模型属于平衡型模型,适合高质量内容生成、复杂问答系统、多模态任务等。
- 70B和671B版本的模型参数规模庞大,适合前沿研究、高精度工业应用等需要顶尖性能的场景。