当前位置: 首页 > article >正文

如何在优云智算平台上面使用deepseek进行深度学习

什么是优云智算平台

优云智算平台
在当今数字化与智能化飞速发展的时代,算力已成为推动科技创新、产业升级以及社会进步的核心驱动力。海量数据的处理、复杂模型的训练以及实时性的智能应用需求,都对计算能力提出了极高的要求。优云智算平台应运而生,作为行业内极具影响力的算力服务平台,它正以卓越的性能、丰富的功能和创新的服务模式,为众多领域的用户带来前所未有的计算体验,助力他们在智能时代的浪潮中抢占先机。

平台的镜像社区是一大特色亮点。在这里,用户可以找到众多热门 GitHub 项目模型,无需从头开始搭建复杂的模型环境,便能抢先体验各种先进的人工智能技术和应用。同时,用户还可以在社区中分享自己的 AI 技能和经验,通过贡献优质内容赚取收益。这种互动式的社区模式,不仅丰富了平台的资源生态,促进了知识的交流与共享,还为用户提供了一个展示自我、实现价值的平台,进一步增强了用户对平台的粘性和归属感。
image.png

何为DeepSeek R1

DeepSeek R1模型有诸多技术优势。高效架构设计使其能更高效提取特征,减少冗余计算,提升数据处理速度、缩短训练时间;强大的泛化能力使其在新旧数据上都表现良好,降低过拟合风险;参数高效利用则优化了参数设置,提高训练效率、减少内存占用。

在人工智能快速发展的当下,深度学习模型应用广泛。DeepSeek作为强大语言模型,在文本生成等领域性能卓越。蓝耘GPU智算云平台基于Kubernetes,为客户提供开放、高性能、高性价比的算力云服务,可解决开发环境设置及运维管理等问题,提供开箱即用的大模型训练、推理平台,还针对大模型训练难题做了定制化设计。
DeepSeek R1 是一款先进的大规模深度学习模型,专为自然语言处理(NLP)和其他复杂任务设计,具备高效的架构、强大的泛化能力以及优化的参数利用,能够精准适应各种实际应用场景。它类似于 OpenAI 的 GPT、Google 的 Gemini 等大模型,能够执行文本生成、理解、问答、代码生成等多种任务。
image.png

DeepSeek R1 的特点

  1. 高效的网络架构

    • 采用创新的深度学习架构,减少计算冗余,提高数据处理效率。
    • 在处理复杂数据时,能够更快提取特征,大幅缩短训练和推理时间。
  2. 强大的泛化能力

    • 训练数据覆盖面广,能够适应不同任务和场景,具有较强的跨领域适应性。
    • 在文本、图像、代码等多模态任务中均能提供稳定的性能。
  3. 优化的参数管理

    • 采用更合理的参数初始化和更新策略,使模型训练更加稳定高效。
    • 资源占用优化,使得在算力受限的情况下依然能够良好运作。

DeepSeek R1 的应用领域

  • 自然语言处理(NLP):文本生成、文章摘要、机器翻译、情感分析等。
  • 智能问答:提供准确的答案,支持知识问答、信息检索等功能。
  • 代码生成与分析:辅助编程、代码补全、代码优化等任务。
  • 数据分析:可用于大数据挖掘、预测建模等领域,帮助企业高效决策。

DeepSeek R1 与其他模型的对比

模型主要特点适用领域计算资源需求
DeepSeek R1高效架构、强泛化能力、优化参数NLP、代码生成、大数据分析中高
GPT-4强大理解与生成能力、多模态文本、代码、图像、对话系统
Gemini多模态模型,适用于跨领域任务文本、语音、视频处理
LLaMA 2轻量级,适合本地部署低算力设备的AI应用

总体来看,DeepSeek R1 结合了高效性、泛化能力和优化的计算资源管理,在大模型竞争中具备较强的实力,适用于科研、企业智能化升级等多种场景。

为什么使用优云智算平台进行deepseek的调用呢?

伴随着deepseek的爆火,很多人挤着抢着使用deepseek,在一个点,很多人同时在使用deepseek,服务器就会出现繁忙的问题,这就造成了很不方便的情况,那么如何避免这种情况呢?
image.png
除了服务器经常卡爆的原因,还有就是有些小伙伴想在电脑本地部署一个deepseek的模型,但是奈何内存太大了,并且就算模型下载好了,自己的电脑配置也不支持,
下面是配置表,对于有些小伙伴确实有点承担不起

模型参数 (B)VRAM 要求 (GB)推荐 GPU
DeepSeek - R1 - Zero671B~1,342 GB多 GPU 配置(例如,NVIDIA A100 80GB x16)
DeepSeek - R1671B~1,342 GB多 GPU 配置(例如,NVIDIA A100 80GB x16)
DeepSeek - R1 - Distill - Qwen 1.5B1.5B~0.75 GBNVIDIA RTX 3060 12GB 或更高
DeepSeek - R1 - Distill - Qwen 7B7B~3.5 GBNVIDIA RTX 3060 12GB 或更高
DeepSeek - R1 - Distill - Llama 8B8B~4 GBNVIDIA RTX 3060 12GB 或更高
DeepSeek - R1 - Distill - Qwen 14B14B~7 GBNVIDIA RTX 3060 12GB 或更高
DeepSeek - R1 - Distill - Qwen 32B32B~16 GBNVIDIA RTX 4090 24GB
DeepSeek - R1 - Distill - Llama 70B70B~35 GB多 GPU 配置(例如,NVIDIA RTX 4090 x2)

这里我们就可以使用我们的优云智算平台进行一个终端的deepseek模型的调用,在平台上我们是不需要进行模型的搭建的,因为deepseek镜像已配置好所需依赖,无需额外安装。
所以我们直接进行命令的调用就行了

优云智算平台提供了丰富多样的算力配置选项,以满足不同用户在不同场景下的需求。在 GPU 方面,平台拥有万卡 4090 资源,用户可以根据自身任务的复杂程度和计算量大小,灵活选择从 1GPU 到 8GPU 不等的配置。对于 CPU 和内存,也提供了从 16C64GB 到 124C940GB 的多种组合供用户挑选。这种高度灵活的算力配置方式,使得用户无需为了适应固定的计算套餐而进行妥协,能够精准地获取满足自身业务需求的算力资源,避免了资源浪费,同时也提高了计算效率。

在优云智算平台上可以使用到deepseek所有的模型:

- **DeepSeek-R1-Distill-Qwen-1.5B**
- **DeepSeek-R1-Distill-Qwen-7B**
- **DeepSeek-R1-Distill-Llama-8B**
- **DeepSeek-R1-Distill-Qwen-14B**
- **DeepSeek-R1-Distill-Qwen-32B**
- **DeepSeek-R1-Distill-Llama-70B**

并且调用的速度快,体验感嘎嘎好

在优云智算平台上进行deepseek的调用详细教程

我们先打开优云智算平台,我们优先进行账号的注册,点击右上角进行登录的操作
image.png
输入真实正确的信息之后我们就进入到了这个页面,我们点击左上角的镜像社区
image.png
映入眼帘的就是我们的DeepSeek R1模型,我们本次实验的deepseek的模型是基于vllm的,除此之外我们还有ollama可视化的,并且可以调用api在chatbox上进行模型的调用
我们点击部署按钮
image.png

这里左侧栏是我们的各种各样的镜像,中间则是我们选择对应的镜像的说明,这里我们中间这一栏就是DeepSeek R1的说明以及使用教程,右边的就是我们的具体配置
image.png
这里我们可以看到这里是可以使用多种模型的

- **DeepSeek-R1-Distill-Qwen-1.5B**
- **DeepSeek-R1-Distill-Qwen-7B**
- **DeepSeek-R1-Distill-Llama-8B**
- **DeepSeek-R1-Distill-Qwen-14B**
- **DeepSeek-R1-Distill-Qwen-32B**
- **DeepSeek-R1-Distill-Llama-70B**

为了更加方便的使用,我们现在右侧栏中进行我们的配置调配,你们可以按照和我一样的设置,GPU型号选择RTX40系,数量我们选择1个就行了,配置的话我们选择16C 64GB,付款方式的话我们选择按量付费,用多少付多少。最后我们点击部署就行了
image.png
然后我们就会跳转到我们的实例列表这里,我们这里需要稍等几分钟进行实例的创建
image.png
等看到我们的实例状态从初始化变成运行中,我们就可以进行使用了,我们点击右边的JupyterLab
image.png
JupyterLab 是一个基于 Web 的交互式计算环境,专为数据科学、科学计算和机器学习等领域设计。它在优云智算平台的使用场景中发挥着重要作用,能让用户更高效地利用平台算力开展工作。

进入到页面中我们点击下面的Terminal进入到终端
image.png
我们这个时候回到我们的镜像介绍的页面,选择我们想体验的模型,然后将对应的命令进行复制,我们这里体验的是一个deepseek 8b的模型

# DeepSeek-R1-Distill-Llama-8B 
vllm serve /model/HuggingFace/deepseek-ai/DeepSeek-R1-Distill-Llama-8B --port 8000 --max-model-len 17984

image.png
我们将命令进行复制,回到我们的控制台粘贴输入,然后回车运行
这里我们就开始跑我们的deepseek模型了
image.png
当我们发现我们控制台出现INFO的话,就说明我们的deepseek已经跑通了
image.png
接下来我们就可以对deepseek进行提问了
我们双击左边的test.py

我们这里默认content是让我们写一篇作文,这里我们可以将双引号内的问题改成我们想问的问题

这里我的问题是“你对哪吒2的爆火有什么想说的呢?”
image.png
输入完毕之后我们输入 CTRL +S进行文本的保存
然后我们再重新开一个终端进行deepseek的回答
点击这里的+我们回到这个界面,点击Terminal打开一个新的终端
image.png
我们输入命令python test.py运行我们刚刚修改保存的文件
这里我们等待一小会儿就可以看到deepseek的回答
image.png
可以看到和官网一样有think思考的过程,你是否觉得很有意思呢?
如果你觉得官网卡顿,又不想在本地部署模型的话,可以来到咱们的优云智算平台进行体验哦

点击下方的链接自注册的话还能获得20元赠金+独家赠送20元用来镜像使用,如果可以进行高校/企业认证的话还能再享95折和10元赠金,4090显卡免费用一整天!再也不用担心自己的电脑配置 不够无法体验好的镜像了,心动不如行动!
https://www.compshare.cn/images-detail?ImageID=compshareImage-17ym815cbokz&referral_code=D2cmnB8cWVyErc0zj2LLZt&ytag=GPU_CSDN_Undoom


http://www.kler.cn/a/569411.html

相关文章:

  • C#知识|泛型Generic概念与方法
  • 【Leetcode 每日一题】132. 分割回文串 II
  • 重新审视 ChatGPT 和 Elasticsearch:第 2 部分 - UI 保持不变
  • c# winfrom增加进度条
  • WP 高级摘要插件:助力 WordPress 文章摘要精准自定义显示
  • Python Cookbook-2.13 使用C++的类iostream语法
  • 解决 Dell PowerEdge T630 增加第三方 PCIe 设备后制冷系统异常
  • 【深度学习】Hopfield网络:模拟联想记忆
  • JAVA调用Deepseek的api,完成基本对话
  • HTML AI 编程助手
  • Spring系列学习之Spring Messaging消息支持
  • 基于FD-MIMO技术的雷达通信一体化系统波形设计matlab模拟与仿真
  • Android应用app实现AI电话机器人接打电话
  • 如何在netlify一键部署静态网站
  • 【极客时间】浏览器工作原理与实践-2 宏观视角下的浏览器 (6讲) - 2.3 HTTP请求流程:为什么很多站点第二次打开速度会很快?
  • Python Tornado 框架面试题及参考答案
  • 计算机毕业设计Hadoop+Spark+DeepSeek-R1大模型音乐推荐系统 音乐数据分析 音乐可视化 音乐爬虫 知识图谱 大数据毕业设计
  • 视觉图像坐标转换
  • P8680 [蓝桥杯 2019 省 B] 特别数的和
  • 测试用例详解