当前位置: 首页 > article >正文

一键部署Ollama deepSeek:科技赋能,轻松上手

1.Ollama安装步骤

第一:拉取 Ollama 镜像

docker pull swr.cn-north-4.myhuaweicloud.com/ddn-k8s/docker.io/ollama/ollama:latest

官方镜像源太慢,可以切到华为云的镜像源

第二:运行 Ollama 容器

拉取镜像成功后,你可以使用以下命令来运行 Ollama 容器

docker run -d -p 11434:8080  -v ollama_data:/root/.ollama --name ollama_deepseek ollama/ollama

这里的参数解释如下:
-d:以守护进程模式运行容器。
-p 11434:8080:将容器的 8080 端口映射到主机的 11434 端口。 
-v ollama_data:/root/.ollama:创建一个名为 ollama_data 的卷,并将其挂载到容器的 /root/.ollama 目录。这将用于存储 Ollama 的数据和配置。
--name ollama_deepseek:为容器指定一个名称(在这里是 ollama_deepseek)

第三:验证Ollama安装

打开浏览器,访问 http://localhost:11434(或者你在 -p 参数中指定的其他端口)。如果看到 Ollama 的界面,则表示安装成功。

2.deepSeek安装

第一:登录ollama官网

第二:点击Models菜单,找到deepSeek

第三:点击deepSeek,选择1.5b版本

第四:复制deepSeek安装命令

第五:登录安装并运行了Ollama的linux机子,执行上一步复制的安装命令

安装成功,看到success后,随便输入一个句话,deepSeek有响应,即表示安装成功

deepSeek 1.5B版本仅做学习使用,企业使用推荐安装7B/8B模型。

deepSeek每个版本推荐的服务器配置如下图

deepSeek版本号,例如 1.5B、7B、8B.....有什么含义

DeepSeek的命名规则中,如1.5B、7B、8B、14B、32B、70B、671B等,这些数字代表模型的参数量(Parameters),单位为十亿(Billion)。具体来说:

  • 1.5B代表模型拥有15亿参数。
  • 7B代表模型拥有70亿参数。
  • 8B代表模型拥有80亿参数。
  • 14B代表模型拥有140亿参数。
  • 32B代表模型拥有320亿参数。
  • 70B代表模型拥有700亿参数。
  • 671B代表模型拥有6710亿参数。

参数规模直接反映模型的复杂度和学习能力。通常,参数越多,模型对复杂模式的捕捉能力越强,但同时对硬件资源的需求也越高。不同参数规模的DeepSeek模型适用于不同的应用场景:

  • 1.5B和7B版本的模型属于轻量级模型,低资源消耗,响应速度快,适合基础任务,如移动端应用(如手机助手)、实时客服、简单文本生成等。
  • 8B版本在处理复杂自然语言理解任务方面表现更优。
  • 14B和32B版本的模型属于平衡型模型,适合高质量内容生成、复杂问答系统、多模态任务等。
  • 70B和671B版本的模型参数规模庞大,适合前沿研究、高精度工业应用等需要顶尖性能的场景。

http://www.kler.cn/a/564713.html

相关文章:

  • RAGFlow基础操作手册
  • Linux Kernel Connection Tracking Table
  • 前端开发--node.js
  • LE AUDIO广播学习笔记之BASE
  • vim临时文件泄露
  • 第四届工程管理与信息科学国际学术会议 (EMIS 2025)
  • ​Vue3 常用指令、属性、方法速查表
  • 【Oracle专栏】Oracle 之 回收站
  • 保护密码等敏感信息的几个常用方法
  • 如何制作安装包打包软件
  • 千峰React:Hooks(上)
  • 【Linux】线程详解
  • 文件操作 -- IO [Java EE 初阶]
  • LangChain教程 - RAG - PDF问答
  • (八)Java-Collection
  • (面试经典问题之无锁队列篇)无锁队列的基本原理及其作用
  • 【easy视频 | day01】项目了解 + 登录注册 + 使用 token 作为客户端请求令牌
  • 2.4 自动化评测答疑机器人的表现-大模型ACP模拟题-真题
  • 日志分析集群安装部署(ELK) 保姆级教程
  • LLVM - 编译器前端 - 将源文件转换为抽象语法树