- US - English
- China - 简体中文
- India - English
- Japan - 日本語
- Malaysia - English
- Singapore - English
- Taiwan, China - 繁體中文
无效的输入。不支持特殊字符。
随着 AI 工作负载不断发展和扩展,内存带宽和容量对于提高系统性能愈发重要。
当前业界最新的 GPU 需要更高性能的高带宽内存 (HBM)、更大的内存容量以及更高的能效。
美光始终站在内存技术创新的前沿,致力于满足这些需求,目前正向行业主要合作伙伴出货量产级 12 层堆叠 HBM3E 产品,以推动 AI 生态系统的全面认证。
联系美光的销售支持团队,了解美光如何为您的大规模数据中心节能增效。
美光 HBME3 – 更低功耗、更大容量
相比竞品的 8 层堆叠 24GB 方案,美光行业前沿的 12 层堆叠 36GB HBM3E 在封装内的 DRAM 容量提升 50%,同时功耗显著降低。
美光 12 层堆叠 HBM3E 拥有 36GB 的惊人容量,可以让参数量达 700 亿之多的 Llama 2 等大型 AI 模型也能在单颗处理器上运行。这种容量提升可避免 CPU 卸载和 GPU-GPU 通信延迟,从而加快挖掘数据洞察的速度。
美光的 12 层堆叠 36GB HBM3E 产品在引脚速度超过 9.2 Gb/s 时,可提供 1.2 TB/s 以上的内存带宽。
此外,美光的 12 层堆叠 HBM3E 采用完全可编程 MBIST,可在全规格速度下运行系统级代表性流量,提升测试覆盖率以加速验证流程,从而缩短上市时间并增强系统可靠性。
以下是美光 12 层堆叠 36GB HBM3E 的优点总结:
- 多家客户认证:美光正向行业主要合作伙伴送样量产级 12 层堆叠产品,以推动 AI 生态系统的全面认证。
- 无缝扩展:凭借高达 36GB 的容量(较当前 HBM3E 产品提升 50%),美光的 12 层堆叠 HBM3E 可支持数据中心无缝扩展日益增长的 AI 工作负载。
- 能效出众:美光 12 层堆叠 36GB HBM3E 的功耗明显低于竞品的 8 层堆叠 24GB HBM3E 解决方案!
- 性能出色:美光 12 层堆叠 36GB HBM3E 的引脚速度达 9.2 Gb/s 以上,可使内存带宽超过 1.2 TB/s,其超高速数据访问可满足 AI 加速器、超级计算机和数据中心的需求。
- 加速验证:完全可编程 MBIST 功能能够以代表系统流量的速度运行,提升测试覆盖率以加速验证流程,从而缩短上市时间并增强系统可靠性。
完善的半导体生态系统支持
美光是台积电 (TSMC) 3DFabric 联盟的重要合作伙伴,该联盟致力于推动半导体与系统创新的未来发展。
AI 系统制造过程十分复杂,HBM3E 的集成需要内存供应商、客户以及外包半导体封装与测试 (OSAT) 厂商之间的紧密协作。
在近期交流中,台积电 (TSMC) 生态系统与联盟管理部门主管 Dan Kochpatcharin 表示:
“台积电与美光长期保持战略合作伙伴关系。作为 OIP 生态系统的一部分,我们紧密合作,助力美光完善基于 HBM3E 的系统及片上基板 (CoWoS) 封装设计,从而支持客户实现 AI 创新。”
展望高带宽内存的未来
美光前沿的数据中心内存与存储产品组合专为满足生成式 AI 工作负载不断发展的需求而设计。
从近内存 (HBM)、主内存(大容量服务器 RDIMM)到 PCIe 5.0® NVMe SSD 及数据湖 SSD,美光提供可高效扩展 AI 工作负载的各种市场前沿产品。
如需了解更多信息,请访问美光 HBM3E 页面。