当前位置: 首页 > article >正文

本地部署DeepSeek大模型

环境:nuc工控机器 x86架构  ubuntu20.04

1、浏览器打开Download Ollama on Linux,复制命令。

2.打开终端,输入命令。

curl -fsSL https://ollama.com/install.sh | sh

 等待安装,安装完成后,终端输入 ollama,输入以下参数列表,说明ollama安装成功了。

2.下载DeepSeek R1模型:

在ollama官网左上角点击 Models 选项卡,

选择一个模型,这里选择7B模型,7B模型运行起来占大概5G的显存,复制指令。

正在下载7B的DeepSeek R1模型了。

 

3.在VScode中配置

安装 continue -*, 侧边栏出现图标。

点击图标,

将 continue -* 移至右侧,不影响工作区的内容。

按照上图所示,选择deepseek-r1 7b。

测试:

终端打开 ollama ps,可以看到deepseek-r1 7b正在运行。

使用  ollama stop deepseek-r1:7b,关闭deepseek-r1 7b。

切换模型:

 

 

 

重新打开VScode,选择 qwen2.5 模型

 

 


http://www.kler.cn/a/554390.html

相关文章:

  • 在前端如何把SEO优化做到极致?
  • angular中使用animation.css实现翻转展示卡片正反两面效果
  • centos下使用pyenv管理python版本
  • 基于SpringBoot的乐享田园系统【附源码】
  • D. C05.L08.贪心算法入门(一).课堂练习4.危险的实验(NHOI2015初中)
  • 从零开始用STM32驱动DRV8301:无人机/机器人电机控制指南
  • minio作为K8S后端存储
  • Android看门狗(WatchDog)
  • 缺少网络安全组织架构 网络安全缺陷
  • 前端面试场景题 1 (批量处理toast、减少if-else)
  • 保姆级! 本地部署DeepSeek-R1大模型 安装Ollama Api 后,Postman本地调用 deepseek
  • Python C API 深度解析与实战指南
  • 备战蓝桥杯 -牛客
  • 速度分析是怎么做的?叠加速度是波传播速度吗?
  • Node.js高频面试题精选及参考答案
  • 关于重启Pod后,CNI网络插件问题报错
  • 【YOLO11改进trick】Pinwheel-shaped Conv风车状卷积引入YOLO11,含创新点代码,方便发论文
  • 奇安信春招一面面试题
  • 2000-2019年各省农业机械总动力数据
  • Linux搭建Nginx直播流媒体服务RTMP/RTSP转Http-flv视频浏览器在线播放/Vue/Java/ffmpeg