当前位置: 首页 > article >正文

DeepSeek 与 Ollama:本地运行 AI 模型的完美组合

今天体验一把本地跑大模型,仅体验安装流程,并不是用实际生产。实际生产还是用 API 或网页版。

部署DeepSeek依赖 Ollama,它是一个开源的 LLM(大型语言模型)服务工具,用于简化在本地运行大语言模型。 

图片

1、安装 ollama

根据你的操作系统类型,选择合适的 Ollama 安装包。 

🌵官方下载页 

https://ollama.com/download 

2、安装 deepseek-r1

根据你的电脑配置,可以选择不同参数的模型版本。普通配置的电脑可选择 7B 或 1.5B 的模型,而配置较高的电脑则可以选择更大参数的 32B 模型。 

Image

🌵模型下载网页 

https://ollama.com/search 

Image

例如,选择 1.5B 的模型,可以通过以下命令进行部署: 

ollama run deepseek-r1:1.5b

Image

部署完成,可以提问了。 

Image

3、网页对话(可选)

直接使用 chrome 插件 page-assist,实现页面进行对话。 

🌵page-assist 官方 

https://github.com/n4ze3m/page-assist 

Image

4、MacOS 三行命令部署

因为我的系统是 MacOS,已安装了 brew,所以使用 brew 安装 ollama,当然本机部署只是体验过程,并不用于实际生产使用。 

brew install ollama
ollama serve
ollama run deepseek-r1:1.5b

命令 1 是下载 Ollama 

命令 2 是运行 Ollama服务,Ollama 需要一直后台运行。 

命令 3 是下载/运行 DeepSeek 模型:需新打开一个命令窗口,执行命令 3。 

这里使用的是 1.5b 参数的版本,大概需要 1.1G。 

 


相关阅读

DeepSeek的魔法:如何让复杂概念变得通俗易懂?

高效使用 DeepSeek 的“七大”技巧,AI小白也能轻松上手!

免费使用 DeepSeek 全尺寸模型API,各享 100 万免费 tokens

DeepSeek V3 vs R1:到底哪个更适合你?全面对比来袭


http://www.kler.cn/a/549840.html

相关文章:

  • 5-CDE说明
  • Selenium定位元素的方法及其语法
  • 个人笔记二:数电篇
  • ORB-SLAM3的源码学习: Settings.cc:Settings::readCamera1/readCamera2 从配置文件中加载相机参数
  • [BJDCTF2020]EzPHP
  • 【DeepSeek】DeepSeek R1 本地windows部署(Ollama+Docker+OpenWebUI)
  • IDEA集成DeepSeek
  • NO.17十六届蓝桥杯备战|do-while循环|break和continue语句|三道练习(C++)
  • SQL递归技巧
  • 盲注技术获取数据库的表名、列名和数据
  • 【test】fio测试 linux存储性能测试
  • linux笔记:shell中的while、if、for语句
  • 开源项目Perplexica-master
  • 对于简单的HTML、CSS、JavaScript前端,我们可以通过几种方式连接后端
  • Shell脚本和Python的工作路径
  • Linux自学day20-流的输入与输出
  • iPhone 智能进化:Siri 调用 DeepSeek 大模型
  • 二.国产化系统—银河麒麟系统网络无法访问/无法使用/网络受限
  • 高等代数笔记—欧几里得空间、双线性函数
  • JavaScript 中处理 object 对象类型的常见方法