设计工具

无效的输入。不支持特殊字符。

应用

美光凭借 12 层堆叠 36GB HBM3E 内存继续保持内存前沿地位

Raj Narasimhan | 2024 年 9 月

随着 AI 工作负载不断发展和扩展,内存带宽和容量对于提高系统性能愈发重要。

当前业界最新的 GPU 需要更高性能的高带宽内存 (HBM)、更大的内存容量以及更高的能效。

美光始终站在内存技术创新的前沿,致力于满足这些需求,目前正向行业主要合作伙伴出货量产级 12 层堆叠 HBM3E 产品,以推动 AI 生态系统的全面认证。

联系美光的销售支持团队,了解美光如何为您的大规模数据中心节能增效。

美光 HBME3 – 更低功耗、更大容量

相比竞品的 8 层堆叠 24GB 方案,美光行业前沿的 12 层堆叠 36GB HBM3E 在封装内的 DRAM 容量提升 50%,同时功耗显著降低。

美光 12 层堆叠 HBM3E 拥有 36GB 的惊人容量,可以让参数量达 700 亿之多的 Llama 2 等大型 AI 模型也能在单颗处理器上运行。这种容量提升可避免 CPU 卸载和 GPU-GPU 通信延迟,从而加快挖掘数据洞察的速度。

美光的 12 层堆叠 36GB HBM3E 产品在引脚速度超过 9.2 Gb/s 时,可提供 1.2 TB/s 以上的内存带宽。

此外,美光的 12 层堆叠 HBM3E 采用完全可编程 MBIST,可在全规格速度下运行系统级代表性流量,提升测试覆盖率以加速验证流程,从而缩短上市时间并增强系统可靠性。
 

以下是美光 12 层堆叠 36GB HBM3E 的优点总结

  • 多家客户认证:美光正向行业主要合作伙伴送样量产级 12 层堆叠产品,以推动 AI 生态系统的全面认证。
  • 无缝扩展:凭借高达 36GB 的容量(较当前 HBM3E 产品提升 50%),美光的 12 层堆叠 HBM3E 可支持数据中心无缝扩展日益增长的 AI 工作负载。
  • 能效出众:美光 12 层堆叠 36GB HBM3E 的功耗明显低于竞品的 8 层堆叠 24GB HBM3E 解决方案!
  • 性能出色:美光 12 层堆叠 36GB HBM3E 的引脚速度达 9.2 Gb/s 以上,可使内存带宽超过 1.2 TB/s,其超高速数据访问可满足 AI 加速器、超级计算机和数据中心的需求。
  • 加速验证:完全可编程 MBIST 功能能够以代表系统流量的速度运行,提升测试覆盖率以加速验证流程,从而缩短上市时间并增强系统可靠性。
     

完善的半导体生态系统支持

美光是台积电 (TSMC) 3DFabric 联盟的重要合作伙伴,该联盟致力于推动半导体与系统创新的未来发展。

AI 系统制造过程十分复杂,HBM3E 的集成需要内存供应商、客户以及外包半导体封装与测试 (OSAT) 厂商之间的紧密协作。

在近期交流中,台积电 (TSMC) 生态系统与联盟管理部门主管 Dan Kochpatcharin 表示:

“台积电与美光长期保持战略合作伙伴关系。作为 OIP 生态系统的一部分,我们紧密合作,助力美光完善基于 HBM3E 的系统及片上基板 (CoWoS) 封装设计,从而支持客户实现 AI 创新。”

展望高带宽内存的未来

美光前沿的数据中心内存与存储产品组合专为满足生成式 AI 工作负载不断发展的需求而设计。

近内存 (HBM)、主内存(大容量服务器 RDIMM)到 PCIe 5.0® NVMe SSD数据湖 SSD,美光提供可高效扩展 AI 工作负载的各种市场前沿产品。

如需了解更多信息,请访问美光 HBM3E 页面

高级副总裁兼计算和网络业务部门总经理

Raj Narasimhan

Raj Narasimhan 是美光高级副总裁兼计算和网络业务部门总经理。他负责领导美光最大的业务部门,并推动面向高性能计算、人工智能以及云和客户端计算的内存产品的发展。

Raj Narasimhan