当前位置: 首页 > article >正文

小白怎样部署和使用本地大模型DeepSeek ?

1 安装Ollama

(1) 下载Ollama

从https://ollama.com/download 下载, 根据你的系统下载对应的版本,支持Win, Mac ,Linux:
下载Ollama
如果下载不了,右键复制链接地址,贴到迅雷,指定可以下载下来。

(2) 安装Ollama

傻瓜式的安装,连接下一步下一步
安装Ollama

(3) 测试安装是否成功, 在命令行(开始菜单->运行->cmd)下运行:

ollama -v

有版本显示表示安装成功
测试安装是否成功

2 安装DeepSeek大模型

与其他的模型安装方法一样 ,在Ollama->Model搜DeepSeek,或直接打开:https://www.ollama.com/search?q=deepseek
选择合适的大模型安装, 根据你的硬件配置特别是显卡GPU, 我用RTX3070,运行14B没有问题
系统配置
安装DeepSeek大模型
安装DeepSeek大模型等待运行完成,模型越大下载时间越久。
如果下载出错Ctrl+C暂停, 相同的命令重新执行一下就好

3 对话大模型/ 聊天

(1) CMD下聊天

必要介绍几个命令:

Ollama list							#显示所有安装的模型   Ollama  olama 大小写都可以
Ollama run deepseek-v2:latest #运行deepseek-v2
Ollama run qwen2:7b					#运行qwen2

ollama rm deepseek-r1  #删除模型

在这里插入图片描述

(2) 其他工具上聊天

工具很多, 常用的有 ChatBox, OpenWebUI, LobeChat
下面以ChatBox为例,先配置与Ollama和模型的关联
ChatBox配置
然后就可以调用DeepSeek与它对话了
调用DeepSeek

交流q:

qq:316853809
原文地址:https://blog.csdn.net/qq_28171389/article/details/145414250
本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.kler.cn/a/528647.html

相关文章:

  • vue虚拟列表优化前端性能
  • generator 生成器,enumerate,命名空间(笔记向)
  • 【大模型LLM面试合集】大语言模型架构_llama系列模型
  • Vue.js 比较 Composition API 和 Options API
  • vsnprintf() 将可变参数格式化输出到字符数组
  • 什么是门控循环单元?
  • 爬取鲜花网站数据
  • 使用 Docker(Podman) 部署 MongoDB 数据库及使用详解
  • 白话DeepSeek-R1论文(三)| DeepSeek-R1蒸馏技术:让小模型“继承”大模型的推理超能力
  • 为AI聊天工具添加一个知识系统 之82 详细设计之23 符号逻辑 正则表达式规则 之1
  • 如何实现滑动列表功能
  • 智慧园区综合管理系统如何实现多个维度的高效管理与安全风险控制
  • c++ list的front和pop_front的概念和使用案例
  • 【3】阿里面试题整理
  • http 请求类型及其使用场景
  • python学习——函数的返回值
  • 【python】tkinter实现音乐播放器(源码+音频文件)【独一无二】
  • error: RPC failed; curl 56 OpenSSL SSL_read: SSL_ERROR_SYSCALL, errno 10054
  • C#面向对象(封装)
  • C语言:整型提升