当前位置: 首页 > article >正文

SK Hynix明年将开发基于96/128 GB DDR5的CXL 2.0内存解决方案

SK Hynix 正致力于为人工智能领域开发基于 DDR5 的 CXL 2.0 内存解决方案,尤其是针对"内存饥渴型"LLM。CXL 指的是 Compute Express Link,这是一种互联技术,可以在 CPU 和 GPU 之间实现更快的数据传输,但在人工智能领域,它实际上是 CPU 和加速器之间的数据传输。

在这里插入图片描述
与传统的 PCIe 接口相比,CXL 的优势在于它能让 GPU 直接访问系统内存,从而显著提升性能。鉴于现代内存技术无法满足大规模人工智能模型所需的功率,CXL 协议最近受到了市场的广泛关注。为了解决这一问题,SK Hynix 和其他公司正在努力采用基于 CXL 的内存解决方案。

SK Hynix 系统架构副总裁在韩国的一次活动上讨论时提到图形处理器目前总是出现"内存饥渴"的情况,开发 CXL 内存模块的可能性很有必要,他还解释了公司在这一特定领域的发展方向。

据透露,SK Hynix 目前正在开发基于 DDR5 的 96GB 和 128GB CXL 2.0 内存产品,并将于 2025 年下半年投放市场。CXL 互连技术允许内存直接访问板载的其他组件,并为板载更大容量的内存提供了空间。

最近,韩国初创公司 Panmnesia展示了一种尖端的 CXL IP,允许 GPU 利用 DRAM 甚至 SSD 的内存,扩展内置的 HBM,因此这是该技术的另一种发展方向。

在这里插入图片描述
遗憾的是,SK Hynix 还没有展示 CXL 2.0 内存解决方案,因此我们现在还无法评论其在人工智能应用中的有效性。不过,据说三星有望在今年推出自己的 256 GB CXL 2.0 内存模块,这或许能让我们对这项技术的未来发展有一个更清晰的认识。

感谢大家花时间阅读我的文章,你们的支持是我不断前进的动力。期望未来能为大家带来更多有价值的内容,请多多关注我的动态!


http://www.kler.cn/a/282440.html

相关文章:

  • ubuntu将firewall-config导出为.deb文件
  • nginx源码安装配置ssl域名
  • Servlet⽣生命周期超级细(笔记)
  • 向潜在安全信息和事件管理 SIEM 提供商提出的六个问题
  • C++ | Leetcode C++题解之第560题和为K的子数组
  • 探索大规模语言模型(LLM)在心理健康护理领域中的应用与潜力
  • 深入理解Python中的装饰器链(Chaining Decorators)
  • git pull时如何避免输入用户名和密码?
  • flowable源码解读——内存缓存设计
  • 探秘紫白洋桔梗花语:勇气、爱情、希望与清晰的象征解读
  • vue前端获取电脑本机的mac和ip地址
  • 国密起步2:GmSSL3使用SM4(对称加密)
  • C语言阴阳迷宫
  • 【Python机器学习】NLP词频背后的含义——隐性语义分析
  • java 读取json文件并写入Excel
  • 【功能自动化】使用测试套件运行测试函数
  • 如何上传NPM包:一步步指南
  • Java、python、php版 剧本杀拼团服务平台 剧本杀管理系统(源码、调试、LW、开题、PPT)
  • RAG Paper List - 检索增强生成论文汇总(2)
  • 一文了解内网穿透以及内网穿透工具 Sunny-Ngrok 的使用指南
  • Java的内存管理机制之(垃圾回收(GC)原理)
  • 【我的Android进阶之旅】 Android官方推荐的依赖注入框架:Dagger Hilt
  • foundation model
  • 文本分析之关键词提取(TF-IDF算法)
  • 行为型设计模式-模板方法(template method)模式
  • 数据结构(邓俊辉)学习笔记】串 17——Karp-Rabin算法:散列