当前位置: 首页 > article >正文

A3超级计算机虚拟机,为大型语言模型LLM和AIGC提供强大算力支持

热门大语言模型项目地址:www.suanjiayun.com/mirrorDetails?id=66ac7d478099315577961758

近几个月来,我们目睹了大型语言模型(LLMs)和生成式人工智能强势闯入我们的视野,显然,这些模型在训练和运行时需要耗费大量的计算能力。认识到这一点,谷歌云在谷歌I/O大会上宣布推出一款全新的A3超级计算机虚拟机。

A3是专门为满足这些对资源需求极高的应用场景的大量需求而打造的。 该公司在一份公告中写道:“A3 GPU虚拟机是专门为当今的机器学习工作负载提供最高性能的训练而打造的,配备了现代CPU、改进的主机内存、下一代英伟达GPU以及重大的网络升级。” 具体而言,该公司为这些机器配备了英伟达的H100 GPU,并与一个专门的数据中心相结合,从而获得了具有高吞吐量和低延迟的强大计算能力,而且据他们所说,其价格相较于通常购买此类配置所需的费用更为合理。

其具体配置参数如下,它由8块英伟达H100 GPU、第四代英特尔至强可扩展处理器、2TB的主机内存以及通过NVSwitch和NVLink 4.0实现的8块GPU之间3.6 TB的双向带宽提供动力,NVSwitch和NVLink 4.0是英伟达的两项技术,旨在帮助像本产品中的这些多块GPU之间实现吞吐量的最大化。 这些机器可提供高达26exaFLOP(每秒百亿亿次浮点运算)的算力,这将有助于缩短训练更大规模机器学习模型所需的时间并降低相关成本。此外,这些虚拟机上的工作负载在谷歌专门的朱庇特数据中心网络架构中运行,该公司将其描述为“26000个高度互联的GPU”。这使得“可按需调整拓扑结构的全带宽可重构光链路”成为可能。

该公司表示,这种方式也应有助于降低运行这些工作负载的成本。 其目的是为客户提供强大的算力,以训练要求更高的工作负载,无论是涉及复杂的机器学习模型还是运行生成式人工智能应用的大型语言模型,并且是以一种更具成本效益的方式来实现。

谷歌将通过以下几种方式提供A3:客户可以自行运行它,或者如果他们愿意,也可以选择托管服务,由谷歌为他们承担大部分繁重的工作。自行运行的方式是在谷歌Kubernetes引擎(GKE)和谷歌计算引擎(GCE)上运行A3虚拟机,而托管服务则是在Vertex AI(该公司的托管机器学习平台)上运行A3虚拟机。 虽然新的A3虚拟机在谷歌I/O大会上宣布推出,但目前只能通过注册预览等候名单来获取使用资格。

热门模型开源项目地址:应用社区 算家云


http://www.kler.cn/a/395084.html

相关文章:

  • linux socket编程之udp_dict_serve服务端--引入配置文件
  • 云原生服务网格Istio实战
  • 【深度学习】零基础介绍循环神经网络(RNN)
  • pro文件转换为CMakeLists.txt文件,QT官方工具使用教程
  • 【模型压缩】原理及实例
  • leetcode-128.最长连续序列-day14
  • King3399(ubuntu文件系统)wifi设备树分析
  • 学习日志009--面向对象的编程
  • 前后端、网关、协议方面补充
  • 41页PPT | 华为业务流程架构全景视图:全业务域L1-L3级流程全案
  • python中父类和子类继承学习
  • Django处理前端请求的流程梳理
  • 通过命令学习k8s
  • ABAP开发学习——权限控制 实例1
  • PHP代码审计 - SQL注入
  • LeetCode面试经典150题C++实现,更新中
  • gcc 1.c和g++ 1.c编译阶段有什么区别?如何知道g++编译默认会定义_GNU_SOURCE?
  • Mysql篇-三大日志
  • Linux设置Nginx开机启动
  • http拉取git仓库,每次都要输入帐号密码,Ubuntu上记住帐号密码
  • 微积分复习笔记 Calculus Volume 1 - 5.5 Substitution
  • sqlserver 常用分页函数
  • ssh key的生成密钥
  • 区间数位和模板(贪心)
  • ROS Action
  • SQL 注入详解:原理、危害与防范措施