当前位置: 首页 > article >正文

国产AI大模型DeepSeek的本地化部署

国产AI大模型DeepSeek的本地化部署

    • 介绍
    • 网页版/APP
      • 网页版
      • APP/小程序
    • API调用(硅基流动为例)
    • 本地化部署(Ollama为例)
      • 安装Ollama
      • 下载DeepSeek模型
      • 配置可视化交互工具
    • 本地化部署的进阶应用

介绍

1月20,DeepSeek (全称,杭州深度求索人工智能基础技术研究有限公司) 正式发布DeepSeek-R1模型,这位AI界的"后起之秀"似乎在一夜之间成了科技圈的"网红",一度登顶苹果美国地区应用商店免费App下载排行榜。

在这里插入图片描述
DeepSeek官网地址是:https://www.deepseek.com/

网页版/APP

网页版

1.登录官网(https://chat.deepseek.com/)后直接注册使用。
在这里插入图片描述

2.输入用户名和密码,点击【登录】按钮。
在这里插入图片描述
3.输入待咨询的问题。
在这里插入图片描述
在这里插入图片描述

APP/小程序

应用商店直接搜索"DeepSeek-AI 智能对话助手"下载,或在微信小程序搜索"deepseek"。
在这里插入图片描述

  • 深度思考模式:自动生成复杂问题的推理过程。
  • 联网搜索:实时获取最新资讯,结合模型生成答案。
  • 文件解析:支持上传文档或图片,提取内容并分析。

在这里插入图片描述

API调用(硅基流动为例)

1.登录网站 https://cloud.siliconflow.cn ,注册账号,然后打开"模型广场",找到DeepSeek R1,复制"deepseek-ai/DeepSeek-R1"。
在这里插入图片描述
在这里插入图片描述

2.打开API Key页面: https://cloud.siliconflow.cn/account/ak 。
在这里插入图片描述

3.新建API密钥。
在这里插入图片描述
在这里插入图片描述
4.Cherry Studio 添加模型。
打开 Cherry Studio,点击设置,选择“模型服务-硅基流动”,输入复制的API密钥,添加模型。
在这里插入图片描述

5.模型配置完成后,回到主页,即可在对话界进行问答。
在这里插入图片描述
在这里插入图片描述

本地化部署(Ollama为例)

安装Ollama

Ollama是专为本地运行大模型设计的开源工具,支持Windows、macOS、Linux系统。

  • 访问官网(https://ollama.com/),下载对应系统的安装包。
    在这里插入图片描述

  • 双击安装后,在终端输入"ollama help"验证安装成功。

下载DeepSeek模型

根据硬件配置选择模型参数(显存要求参考):
在这里插入图片描述
操作步骤如下:

  • 在ollama搜DeepSeek,选择deepseek-r1,根据配置条件选择不同参数的模型,大部分普通电脑都是1.5B或者7B,选择适配的模型版本复制对应代码。
    在这里插入图片描述

  • 在终端电脑主页,同时按住win+R键,输入cmd,然后粘贴命令(1.5B版本) “ollama run deepseek-r1:1.5b”,按回车,系统会自动下载安装deepseek模型。
    下载安装Ollama请参考:https://blog.csdn.net/muriyue6/article/details/145498021
    在这里插入图片描述

  • 安装完成后,输入"ollama list",就可以查看安装的模型。
    在这里插入图片描述

配置可视化交互工具

为提升体验,推荐使用图形化工具Chatbox、Cherry Studio,在此以Cherry Studio为例进行说明。

  • 下载Cherry Studio客户端,安装后进入设置,配置Ollama 安装过的模型。默认API:http://localhost:11434/v1,添加模型名。
    Cherry Studio官网地址:https://cherry-ai.com/
    下载Cherry Studio客户端请参考:https://blog.csdn.net/muriyue6/article/details/145496811
    在这里插入图片描述
    在这里插入图片描述

本地化部署的进阶应用

  • AI编程助手
    在VS Code中安装Continue插件,配置DeepSeek模型,实现代码自动补全与调试。
  • 私有知识库
    使用anythingLLM或向量数据库+RAG技术,构建本地知识库,解决合规性问题。
  • API集成
    通过Python调用本地模型接口,嵌入自有系统。
from ollama import chatresponse = chat(model='deepseek-r1:7b', messages=[{'role':'user', 'content':'问题'}])

http://www.kler.cn/a/538302.html

相关文章:

  • 了解网络层
  • 在 Java 中使用数据库的存储过程有什么好处?如何在 JDBC 中调用存储过程?
  • MyBatis面试题解析
  • 【Matlab优化算法-第14期】基于智能优化算法的VMD信号去噪项目实践
  • 神经网络(Neural Network)
  • 【Matlab优化算法-第13期】基于多目标优化算法的水库流量调度
  • 数据留痕的方法
  • WordPress wp-recall插件存在SQL注入漏洞(CVE-2024-32709)
  • 响应式编程_04Spring 5 中的响应式编程技术栈_WebFlux 和 Spring Data Reactive
  • 【异常解决】在idea中提示 hutool 提示 HttpResponse used withoud try-with-resources statement
  • 线程安全面试题
  • 【C语言标准库函数】指数与对数函数:exp(), log(), log10()
  • google 多模态aistudio Stream Realtime体验
  • cursor指令工具
  • flask开发的网站,后端服务关闭后,可以找回之前的数据的吗
  • Vue全流程--Vue2路由
  • 【Leetcode 每日一题】63. 不同路径 II
  • 计算机组成原理(3)
  • Tengine配置负载均衡加健康检查
  • 【AI】人工智能与搜索引擎知识了解
  • 高效 MyBatis SQL 写法一
  • 【Vue】在Vue3中使用Echarts的示例 两种方法
  • Shapefile格式文件解析和显示
  • Ubuntu系统apt镜像源报错解决思路
  • Python 实现 gRPC 与 原始 RPC 的对比:理解 RPC 的基本功能
  • 解释 Vue 3 中的 Composition API