当前位置: 首页 > article >正文

本地部署deepseek模型步骤

文章目录

    • 0.deepseek简介
    • 1.安装ollama软件
    • 2.配置合适的deepseek模型
    • 3.安装chatbox可视化

0.deepseek简介

DeepSeek 是一家专注于人工智能技术研发的公司,致力于打造高性能、低成本的 AI 模型,其目标是让 AI 技术更加普惠,让更多人能够用上强大的 AI 工具1。DeepSeek 由幻方量化孵化,成立于2023年4月,是一家创新型科技公司,专注于开发先进的大语言模型(LLM)和相关技术。DeepSeek 推出的大模型在技术圈与投资界突然“爆火”,成立仅一年多的深度求索(DeepSeek)公司于1月20日推出其新一代大模型R1,性能显示出与OpenAI的最新版本相当的潜力,却在训练成本上实现了大幅度降低。2

DeepSeek-R1 是 DeepSeek 推出的推理大模型,它在数学、代码、自然语言推理等任务上的性能可以比肩 OpenAI 的 o1 模型正式版3。DeepSeek-R1 的成功预示着中国在人工智能模型研发方面取得了从模仿到超越的重要突破。DeepSeek-R1 的预训练费用只有557.6万美元,在2048块英伟达H800 GPU集群上运行55天完成4。DeepSeek 还因其新发布的开源模型 R1 在性能和成本效率上的突破性表现,引发了整个 AI 行业的广泛讨论。5

1.安装ollama软件

1.进入ollama官网,下载适合自己计算机版本的安装包(大约3min),我这里下载的是windows版本。

在这里插入图片描述
在这里插入图片描述

下载好之后如下图所示:
在这里插入图片描述

2.安装ollama软件。点击下载好的.exe文件,然后点击Install,默认安装在C盘(后期可以自己转移位置,详见文章:将ollama迁移到其他盘
在这里插入图片描述

3.打开ollama软件,电脑右下角会出现这样的图标:

在这里插入图片描述

2.配置合适的deepseek模型

  1. 在ollama官网中点击Models,点击deepseek-r1,根据自己电脑选择不同版本的模型,复制后面的那句命令。

    在这里插入图片描述在这里插入图片描述

  2. win+R然后输入cmd,调出命令行窗口。

  3. 输入命令ollama -v 查看ollama的版本,确保ollama软件已经在运行状态,才能进行后面的操作。

  4. 将刚才复制的命令复制到命令行窗口,点击回车即可。

    在这里插入图片描述

  5. 当进度条到100%的时候,会出现一句话:send a message,这样就是已经部署成功14b模型了。

    可以直接在这个命令行窗口输入对话使用14b的模型。

    在这里插入图片描述

这里示范的是部署14b的模型,时间比较久,可能和网速有关系,我这边网速也比较慢,大约得有1个多小时才弄好。(会有进度条提示)

但是后来发现我的电脑太老了,部署14b之后,带不起来。

  • 我的电脑GPU是NVIDIA GeForce MX150:这款显卡性能相对有限,可能无法提供足够的计算能力来快速处理大型模型。对于 DeepSeek R1-14B 这样的大型模型,可能仍然会运行缓慢。

  • MX150 的显存通常为 2GB,这对于运行 14B 参数的模型来说是远远不够的。大型模型需要更多的显存来存储中间计算结果。

  • 所以后面我改为用7b的模型

3.安装chatbox可视化

在命令行窗口中可以使用,但是不方便,所以使用chatbox软件进行可视化操作,这样可以更加便捷的使用deepseek模型。

  1. 进入chatbox官网,下载chatbox安装包
    在这里插入图片描述

  2. 安装chatbox软件,可以自定义安装位置
    在这里插入图片描述

  3. 安装好之后自动运行chatbox软件,点击“使用自己的API KEY或本地模型”,配置刚刚部署的14b模型。

    在这里插入图片描述

    选择Ollama API选项
    在这里插入图片描述

    然后选择已经部署好的14b模型
    在这里插入图片描述

这样就把deepseek部署到本地,并且可视化使用。


http://www.kler.cn/a/524724.html

相关文章:

  • 【性能优化专题系列】利用CompletableFuture优化多接口调用场景下的性能
  • FireFox | Google Chrome | Microsoft Edge 禁用更新 final版
  • C++并发编程指南04
  • 构建 QA 系统:基于文档和模型的问答
  • 腾讯云开发提供免费GPU服务
  • 软件架构的演变:从大型机和整体式应用到分布式计算
  • 回顾Maven
  • 科技巨头AI投资引领未来增长
  • Foundation 模态框
  • 《Foundation 起步》
  • AAAI2024论文解读|HGPROMPT Bridging Homogeneous and Heterogeneous Graphs
  • 寻找两个正序数组的中位数:分治法与二分查找的结合
  • (1)Linux高级命令简介
  • c++ map/multimap容器 学习笔记
  • 前端表单验证终极指南:HTML5 内置验证 + JavaScript 自定义校验
  • Brave132 编译指南 Windows 篇:部署 Node.js(五)
  • vue 无法 局域网内访问
  • 【matlab】绘图 离散数据--->连续函数
  • 2025年加密AI十大预测:从Bittensor复兴到AI Agent崛起
  • 将ollama迁移到其他盘(eg:F盘)
  • 爬虫基础(二)Web网页的基本原理
  • shell脚本批量修改文件名之方法(The Method of Batch Modifying File Names in Shell Scripts)
  • Android开发入门
  • 【华为OD-E卷 - 转骰子 100分(python、java、c++、js、c)】
  • Ollama windows安装
  • 记录一次,PyQT的报错,多线程Udp失效,使用工具如netstat来检查端口使用情况。