当前位置: 首页 > article >正文

如何使用DeepSeek

如何使用DeepSeek

  • 一、网页版AI
  • 三、调用API,部署到chatbox
    • 1、获取DeepSeek的API Key
    • 2、安装并配置chatbox
  • 三、本地部署
    • 1、安装ollama
    • 2、选择要安装的模型
    • 3、安装模型
    • 4、后续模型运行

深度求索人工智能基础技术研究有限公司(简称“深度求索”或“DeepSeek”),成立于2023年,是一家专注于实现AIGC的中国公司。价格便宜,代码开源。

官网地址:https://www.deepseek.com/

一、网页版AI

最简单就是网页使用,打开网页,或者在应用商店搜索下载App。

地址:https://chat.deepseek.com/

直接在网页上访问和使用,速度感觉挺快的。

深度思考:就是R1的推理模型,可以自动思考。

联网搜索:就可以搜索到最近最新的内容,特别是查看最新的新闻。

选择文件(右下角),比如说图片、文档等等,让它提取图片或文档中的文字内容。

不过最近Deepseek 的服务器访问量有点大,经常会显示服务器有问题,使用不了,这个时候我们就需要使用API,不过Deepseek 官方API 暂时也使用不了。

三、调用API,部署到chatbox

1、获取DeepSeek的API Key

打开DeepSeek官网:https://www.deepseek.com/。

点击右上角的“API开放平台”,登录账号(如果没有账号,可以先注册一个)。

在这里插入图片描述

登录成功后,点击左侧的“API Keys”,然后点击“创建API Key”,输入一个名称,创建完成后复制生成的API Key。

在这里插入图片描述

注意:复制保存好API key,因为出于安全原因,你将无法通过 API keys 管理界面再次查看它。

2、安装并配置chatbox

首先下载chatbox:https://chatboxai.app/zh

这个软件是一个免费方便的通过调用api进行使用大模型的一个软件,下载安装完成后,打开软件,可以看到主页面的”设置“。

在这里插入图片描述

然后点击模型提供方,当前的新版本已经支持直接选择DeepSeek API,不需要像之前那样添加自定义提供方。

在这里插入图片描述

填写你自己的API key,选择模型,调整下边的两个参数后,点击保存。

在这里插入图片描述

然后就可以使用了。

注意:最近Deepseek 的服务器访问量有点大,经常会显示服务器有问题,使用API的方式也可能会访问不了。

三、本地部署

如果你打游戏或者有专门的显卡,可以自己在本地部署。如果你之前没用过AI产品,或者平时用AI也不多,不推荐搞本地部署。前边两种更简单的方法,可以让你用上AI。

本地部署适合以下情况:① 电脑配置较高,有独立显卡。② 有私密的数据需要处理,担心泄密。③需要和本地工作流结合,处理高频任务或复杂任务。④ 日常使用量大,调用API需要收费,本地部署能省钱。⑤ 想要在开源模型基础上,做个性化的定制版本。

1、安装ollama

本地部署首先要安装ollama,你可以把它理解为,一个装AI的盒子,把AI装在盒子里,方便管理。

地址:https://ollama.com/

打开官网,根据自己的电脑类型,选择不同版本。然后点击下载,之后安装到本地。

在这里插入图片描述

如果桌面出现了ollama图标,说明软件安装成功。图标就是下图的羊驼。

在这里插入图片描述

2、选择要安装的模型

还是在刚刚的ollama官网,点击右上角红框的位置。

在这里插入图片描述

在弹出的界面,点击红框的“Models”选项。

在这里插入图片描述

搜索到DeepSeek R1。

地址:https://ollama.com/library/deepseek-r1

在这里插入图片描述

选择不同参数的模型,这里的数字越大,参数越多,性能越强,1.5b代表模型具备15亿参数。

如果电脑16G显存,运行14b参数模型时,需要大约11.5G显存。如果是1.5b版本,2G以下的显存就可以运行,甚至不需要独立显卡,核显就可以。如果是32b参数的,就需要32G显存,可以根据自己的电脑性能选择。

在这里插入图片描述

像我们普通的电脑安装1.5B,7B就可以使用,以1.5b参数为例。

选择1.5b参数后,复制红框中的命令“ollama run deepseek-r1:1.5b”。

3、安装模型

打开命令行,同时按下键盘上的Win和R键,弹出如下窗口。

在这里插入图片描述

在弹出的窗口中,输入cmd,点击确定,打开命令行,就像下面这样。

在这里插入图片描述

在打开的命令行里,输入上面复制的命令“ollama run deepseek-r1:1.5b”。

在这里插入图片描述

点击键盘上的“Enter”键,模型会自动下载。

在这里插入图片描述

安装需要一段时间,等到出现success,就代表安装成功。

安装成功后,就可以与模型对话了。

在这里插入图片描述

输入ollama list,就可以查看安装的模型。

在这里插入图片描述

此时大模型安装在你的电脑上,就算断网也可以继续用,也不用担心数据泄露。

4、后续模型运行

这里还有一个问题,当你关闭电脑后,下次再打开ollama。会发现点击ollama的图标,电脑没反应。

因为你点击图标,只是启动了ollama,想要和大模型聊天,还是需要打开命令行。

继续通过命令行和大模型聊天同时按下键盘上的Win和R键,在弹出的窗口里输入cmd,点击确定打开命令行。

在命令行界面,输入刚刚的命令“ollama run deepseek-r1:1.5b”。因为你之前已经下载过,这次无需下载,可以直接和模型聊天。


http://www.kler.cn/a/537722.html

相关文章:

  • 对于 useMemo 的理解及解析
  • webview_flutter的使用
  • 备忘录模式
  • 协议-ACLLite-ffmpeg
  • 算法9--链表
  • 【大数据技术】搭建完全分布式高可用大数据集群(Kafka)
  • mybatis 是否支持延迟加载?延迟加载的原理是什么?
  • systemverilog的program和module的区别
  • ReentrantLock/内存溢出监控
  • 南京观海微电子----开关电源电路图
  • Java_方法引用
  • leetcode——杨辉三角(简单移动的解法)
  • 后台管理系统网页开发
  • deepseek搭建本地知识库
  • 基于大模型的围术期脆弱性评估系统研究报告
  • 软考通过率仅有10% ?或许2025年更难?
  • 训练你的模型:如何构造和优化训练数据(三·上)
  • PAT乙级( 1009 说反话 1010 一元多项式求导)C语言版本超详细解析
  • WordPress email-subscribers插件存在SQL注入漏洞(CVE-2024-2876)
  • Java中实现‌‌SHA-3算法介绍、应用场景和示例代码
  • 21.2.6 字体和边框
  • DeepSeek V3报告阅读
  • deepseek从网络拓扑图生成说明文字实例
  • 玩转Docker | 使用Docker部署httpd服务
  • ESP32S3基于espidf 深度睡眠模式和唤醒使用
  • XML Schema 限定 / Facets