当前位置: 首页 > article >正文

【大模型】蓝耘智算平台部署DeepSeek-R1大模型使用详解

目录

一、前言

二、蓝耘智算平台介绍

2.1 蓝耘智算平台是什么

2.2 平台优势

2.3 应用场景

2.4 对DeepSeek 的支持

2.4.1 DeepSeek 简介

2.4.2 DeepSeek 优势

三、蓝耘智算平台部署DeepSeek-R1操作过程

3.1 注册账号

3.1.1 余额检查

3.2 部署DeepSeek-R1

3.2.1 获取DeepSeek-R1模型

3.2.2 应用介绍与说明

3.2.3 应用部署

3.2.4 启动应用

3.2.5 效果体验

3.2.6 模型切换

3.3 文档对接

四、写在文末


一、前言

近期随着DeepSeek的热度持续走高,让AI圈也变得异常热闹,而DeepSeek-R1模型凭借其卓越技术优势,成为众多开发者和研究者的探索焦点。DeepSeek 作为一款强大的语言模型,在文本生成、知识问答等领域展现出了卓越的性能。各大厂商也纷纷开始推出便捷快速的与DeepSeek的接入方案,从而降低使用DeepSeek的成本,缩短应用开发者与DeepSeek的距离。而在这些对接的平台中,蓝耘智算平台则为我们提供了便捷、高效的计算资源,让我们能够轻松地使用 DeepSeek 进行各种任务的处理,本文将详细介绍如何在蓝耘智算平台上使用 DeepSeek的完整过程。

二、蓝耘智算平台介绍

2.1 蓝耘智算平台是什么

蓝耘智算平台是一个现代化的、基于Kubernetes的云平台,专为大规模GPU加速工作负载而构建。该平台旨在为工程师、创新者和科研工作者提供无与伦比的计算解决方案,其速度可比传统云服务提供商快35倍,成本降低30%,快速入口:lanyun.net

针对大模型训练场景,蓝耘算力云平台将运行环境、模型、 训练框架等打包到容器中,并通过定制化Kubernetes容器 、编排工具进行容器调度、管理和扩展,可以解决开发环境设置以及运维和管理问题,让算法工程师能够使用统一 的环境模板进行开发,免除了初期大量的开发环境设置, 以及在新的环境中管理新的算力资源的问题,为用户提供 开箱即用的大模型训练、推理平台。 除此之外,针对大模型训练中遇到的容器进程死机、大规 模分布式训练中GPU驱动丢失、GPU硬件损坏、甚至是计 算节点宕机等难题,都做了定制化设计,为以上难题提供 了自动化调度和强大的自愈能力,实现了更高的开发和训 练效率以及整体资源利用率。

2.2 平台优势

蓝耘智算平台的核心优势包括:

  • 高性能计算能力:

    • 平台基于行业领先的灵活基础设施和大规模GPU算力资源,能够提供开放、高性能、高性价比的算力云服务

  • 基础设施灵活

    • 平台基于行业领先的灵活基础设施构建,用户可以根据实际需求动态调整资源,实现资源的高效利用和成本的合理控制。

  • 全场景覆盖:

    • 从数据准备、代码开发、模型训练到推理部署等全场景覆盖,支持从AI开发到部署的全流程

  • 生态体系完善:

    • 平台集应用市场、预训练大模型、数据集管理、AI开发工具、模型镜像等功能于一体,致力于构建一个充满活力的AI社区平台;

  • 现代化的云平台架构

    • 蓝耘智算平台采用Kubernetes作为核心容器编排技术,构建了一个现代化的云平台架构。这确保了平台的高可用性、可扩展性和易管理性

  • 易于使用和管理

    • 平台提供直观的用户界面和强大的管理工具,使得用户可以轻松地进行资源申请、任务调度和监控管理,降低了使用门槛和管理成本。

  • 丰富的服务选项

    • 蓝耘智算平台提供多种服务选项,包括计算服务、存储服务、网络服务等,用户可以根据实际需求选择合适的服务组合,满足多样化的应用场景需求。

  • 安全性高

    • 蓝耘智算平台注重数据安全,采用多种安全措施保障用户数据的安全性和隐私性,包括数据加密、访问控制、安全审计等。

2.3 应用场景

蓝耘智算平台的应用场景包括但不限于:

  • 机器学习:提供高性能计算资源,加速模型训练和推理过程。

  • 视觉渲染:支持复杂的图形处理任务,如电影特效、建筑设计可视化等。

  • 批处理:处理大量数据和计算任务,适用于大数据分析和科学计算。

  • 科研创新:为科研工作者提供高性能计算环境,加速科研项目的进展。

蓝耘智算平台的注册使用流程简单直观,用户可以根据需求选择公有云、私有化部署或按年度订阅的服务模式。对于中小型商业客户和AIGC开发者,平台提供弹性算力服务,用户按需购买或订阅资源;对于大型企业用户,平台支持内部私有化部署,确保数据安全和性能要求

2.4 对DeepSeek 的支持

2.4.1 DeepSeek 简介

DeepSeek 是字节跳动旗下云雀模型团队基于 Transformer 架构开发的新一代开源大语言模型,以其强大的语言理解与生成能力在自然语言处理领域崭露头角。快速入口:DeepSeek

  • 在模型架构上,DeepSeek 创新性地优化了 Transformer 架构,大幅提升了模型的学习效率和性能表现。它能够更高效地处理和分析大规模文本数据,从而为各类自然语言处理任务提供坚实的基础。在预训练阶段,DeepSeek 在海量的文本数据上进行了深度训练,涵盖新闻资讯、学术论文、文学作品、社交媒体等丰富多样的数据源,使其具备了广泛的知识储备和强大的语言理解能力。

  • 在多种自然语言处理任务中都展现出卓越的性能。在文本生成方面,无论是创作故事、撰写文章还是生成对话,它都能生成连贯、富有逻辑且语义准确的文本;在智能问答任务中,DeepSeek 能快速理解问题含义,并从海量知识中提取准确答案;在文本分类、情感分析等任务中,也能凭借其精准的理解能力给出可靠的结果。

  • 此外,DeepSeek具备高度的可定制性和扩展性。开发者可以根据自身需求对模型进行微调,使其更好地适应特定领域或任务,从而为不同行业的应用提供了极大的便利。凭借这些优势,DeepSeek 在智能客服、内容创作、智能写作辅助、信息检索等领域有着广泛的应用前景,正助力各行业在自然语言处理领域取得新的突破 。

2.4.2 DeepSeek 优势

DeepSeek 与其他大语言模型相比,具有以下独特优势:

  • 技术架构方面

    • 混合专家架构优势:

      • 采用混合专家(MoE)架构,如 DeepSeek-V3 能通过路由机制按需激活专家处理任务。相比传统大模型,避免了不必要的计算,减少了计算量和内存消耗4。还可根据输入数据特性和不同任务,动态选择最合适的专家,灵活分配计算资源,优化处理效率4。

    • 指令集创新:

      • 采用 PTX 指令集,与 NVIDIA 的 CUDA 不同,PTX 可与 GPU 驱动函数直接交互,开发者能进行更深层次的硬件操作和定制,极大提高运行效率。

  • 性能表现方面

    • 推理与计算能力突出:

      • 在编程任务中,DeepSeek-V3 的通过率较高,在数学推理任务中,超过了大部分开源和闭源模型,展示出强大的问题解决能力。

    • 多语言理解出色:

      • 作为中国团队开发的模型,更符合中文语言习惯和文化背景5。在中文多语言理解测试中得分较高,远超 Llama 3.14。

    • 生成速度快:

      • DeepSeek-V3 支持多单词预测,生成效率提升了 3 倍,从原本每秒 20 个 token 的生成速率提升至 60 个 token,能更迅速高效地处理大规模文本生成任务。

    • 多模态处理能力强

      • DeepSeek-VL 能够在不丢失语言能力的情况下处理多种类型的数据,包括逻辑图、网页、公式识别、科学文献、自然图像等,还能接受高达 1024x1024 的大尺寸分辨率图片输入,提高了对细节的识别能力。

  • 成本与资源利用方面

    • 训练成本低

      • DeepSeek-V3 的训练成本仅为 557 万美元,远低于 GPT-4 的约 1 亿美元以及 Meta 的 Llama 3.1 的 5 亿美元,在计算资源和硬件资源上的利用效率更高。

    • 推理成本优势

      • DeepSeek 的使用成本为 0.0012 美元 / 千 token,成本效益优势明显,对于资源有限的企业或研究团队更具吸引力。

  • 开源与生态方面

    • 开源与商用授权

      • 提供开源商用授权政策,允许开发者自行部署、训练、微调和应用模型,为开发者和研究者提供了技术支持。

    • 对开发者友好

      • 开源使开发者能够根据自己的需求调整和改进模型,在大规模分布式系统上部署时,能更好地掌控资源和计算效率,有效吸引开发者参与优化和定制,利于形成活跃的开发社区和丰富的应用生态。

三、蓝耘智算平台部署DeepSeek-R1操作过程

如何基于蓝耘智算平台快速使用DeepSeek呢,接下来看详细的操作过程。

3.1 注册账号

注册/登录入口:蓝耘元生代智算云平台

登录之后进入到下面的主页

3.1.1 余额检查

新用户首次注册并登录之后,平台默认会赠送一定额度的代金券,代金券可用于使用平台进行大模型的部署使用,跟其他类似的平台做法类似,如果代金券的额度消耗完毕,则需要充值。

3.2 部署DeepSeek-R1

3.2.1 获取DeepSeek-R1模型

进入应用市场之后,可以看到展现在首页第一个就是deepseek-r1模型,们这里以第一个模型deepseek-r1_1.5b_7b_8b进行举例,当然左侧还有很多其他类型的大模型,可以根据自己的需要进行选择。

3.2.2 应用介绍与说明

DeepSeek在R1模型的基础上,使用Qwen和Llama蒸馏了几个不同大小的模型,适配目前市面上对模型尺寸的最主流的几种需求。Qwen和Llama系列模型架构相对简洁,并提供了高效的权重参数管理机制,适合在大模型上执行高效的推理能力蒸馏。蒸馏的过程中不需要对模型架构进行复杂修改 ,减少了开发成本。【默认账号:lanyunuser@lanyun.net 密码:lanyunuser】

3.2.3 应用部署

进入当前模型的应用详情之后,点击右侧的部署

弹出下面的参数选择框

这里选择按量计费,用多少算多少,GPU的型号选择默认的RTX 4090,由于是云上部署,就算自己的电脑配置不是这个,我们依旧可以在这个平台来体验这个4090显卡,选择好之后点击这个立即购买就行了

然后跳转到下面的实例创建页面

创建完成后,注意保管好下面这两个配置信息,后续可能用得上

如果开启的应用实例暂时不用了,可以点击关机,避免一直消耗账户的额度费用

3.2.4 启动应用

上述部署完成之后,点击右侧的快速启动应用,跳转到下面的登录页面,使用上文中的账号和密码进行登录

  • 账号:lanyunuser@lanyun.net

  • 密码:lanyunuser

登录成功后,来到下面的页面,即可视化对话页面

3.2.5 效果体验

到上面这一步,应用就算搭建完成后,下面来问几个问题,体验下效果如何。

问题1:

  • 你是一个资深导游,在预算不超过2000的情况下,为我设计一个桂林3日游攻略

问题2:

  • 写一篇AI技术发展的文章,面向的群体为大学生,不超过500字

问题3:

  • 你是一个DBA专家,为我提供mysql常用的优化技巧

体验小结

总的来说,使用这种方式部署deepseek在提问来看,回答的流畅性、回答质量来说还是基本可以满足使用者要求的,比起本地直接部署大模型高昂的配置成本,值得一试

3.2.6 模型切换

在当前的web体验控制台顶部,还可以根据实际需要手动切换模型,如下

3.3 文档对接

如果你要基于你部署的deepseek应用进行本地的代码开放,平台也提供了相应的文档可以参考使用,入口:快速入门 | GPU智算云平台文档中心

四、写在文末

本文通过操作演示详细介绍了如何基于蓝耘智算平台快速部署DeepSeek-R1大模型的完整步骤,当然,更多的功能还可以解锁,有兴趣的同学可以在此基础上继续深入研究,本篇到此结束,感谢观看。


http://www.kler.cn/a/558540.html

相关文章:

  • Linux-C-函数栈-SP寄存器
  • vim 多个关键字高亮插件介绍
  • 设计模式-adapter模式(适配器)
  • 一文讲解Redis中的集群数据分区相关问题
  • java后端开发day19--学生管理系统升级
  • [MDM 2024]Spatial-Temporal Large Language Model for Traffic Prediction
  • Linux命令大全完整版(02)
  • 【漫话机器学习系列】101.特征选择法之Lasso(Lasso For Feature Selection)
  • 【力扣Hot 100】堆
  • 【uni-app】对齐胶囊容器组件
  • Future和FutureTask实现类详解以及使用。
  • 阿里云CDN转https个人测试证书过期更换
  • CentOS 7.9 解决 python3 报错 ModuleNotFoundError: No module named ‘_ssl‘ 的问题
  • Gradio全解11——使用transformers.agents构建Gradio UI(6)
  • 字节跳动2面、美团2面Java面试真题总结
  • 跟着 Lua 5.1 官方参考文档学习 Lua (7)
  • vscode settings(一):全局| 用户设置常用的设置项
  • UE_C++ —— Delegates
  • Selenium控制已经打开的浏览器(Chrome,Edge)
  • 计算机网络之路由协议(RIP路由协议)