欢迎访问 Micron.com,请登录或注册账户以继续。
无效的输入。不支持特殊字符。
加速 AI 创新
HBM3E 的制程技术处于业内前沿,专为 AI 和超级计算应用打造
工程报告:HBM 对大语言模型 (LLM) 性能的影响
常见问答
美光 8 层堆叠的 24GB HBM3E 解决方案将于 2024 年第二季度搭载 NVIDIA H200 Tensor Core GPU 出货。美光 12 层堆叠 36GB HBM3E 现已开始送样。
美光 8 层堆叠和 12 层堆叠的 HBM3E 模块提供行业前沿的引脚速度,达到了 9.2Gbps 以上,并且支持向下兼容 HBM2 初代设备的数据速率。
美光 8 层堆叠和 12 层堆叠的 HBM3E 解决方案提供行业前沿的带宽,达到了每个堆叠 1.2 TB/s 以上。HBM3E 有 1024 个 IO 引脚,引脚速度超过 9.2Gbps,提供高于 1.2TB/s 的传输速率。
美光行业前沿的 8 层堆叠 HBM3E 提供每个堆叠 24GB 的容量。最近宣布的美光 12 层堆叠 HBM3E 立方体将提供令人惊叹的每个堆叠 36GB 容量。
美光 8 层堆叠和 12 层堆叠的 HBM3E 解决方案提供行业前沿的带宽,达到每个堆叠 1.2 TB/s 以上。HBM3E 有 1024 个 IO 引脚,引脚速度超过 9.2Gbps,提供高于 1.2TB/s 的传输速率。
HBM2 提供 8 个独立通道,每个引脚的速度可达到 3.6Gbps,提供高达 410GB/s 的带宽,并有 4GB、8GB 和 16GB 的容量可选。HBM3E 提供 16 个独立通道和 32 个伪通道。美光 HBM3E 提供超过 9.2Gbps 的引脚速度,以及行业前沿的带宽,达到了每个堆叠 1.2 TB/s 以上。美光 24GB 容量的 HBM3E 使用了 8 层堆叠,36GB 容量使用了 12 层堆叠。美光 HBM3E 的功耗比竞品低 30%。
请参阅我们的产品简介。
特色资源
1. 数据速率测试估计值基于在制造测试环境中执行的 shmoo 图引脚速度。
2. 比同堆叠层数竞品的容量高出 50%。
3. 功率和性能估计值基于工作负载用例的模拟结果。
4. 基于引用 ACM 出版物的美光内部模型,与当前出货的平台 (H100) 相比。
5. 基于引用 Bernstein 研究报告的美光内部模型,NVIDIA (NVDA):一种自下而上评估 ChatGPT 机会的方法,2023 年 2 月 27 日,与当前出货的平台 (H100) 相比。
6. 基于使用商用 H100 平台和线性外推得出的系统衡量结果。