设计工具

无效的输入。不支持特殊字符。

盒子中的 AI 数据中心。开启无限智能。

盒子可以很出彩

盒子没什么意思。它们不可能很出彩。但是,并非所有盒子都一样。如果盒子能成为超级智能的 AI 问题解决能手,应对世界上一些棘手的挑战呢? 观看这段视频,了解盒子在美光 AI 内存和存储解决方案的助力下会如何大放异彩。

具有紫色和蓝色轮廓的三维立方体图像

美光科技推动 AI 数据中心走向未来

AI 数据中心需要完整的内存和存储层次结构

未来的数据中心将完全为 AI 而构建,从硬件架构和散热系统到支持 AI 工作负载高效运行的内存和存储解决方案,皆是如此。AI 是专用数据中心的强大助推力量。

值得信赖的合作伙伴,为您的 AI 数据中心提供卓越解决方案

美光拥有完善的产品线,能提供适用于各种 AI 训练和推理应用的内存和存储解决方案。美光还拥有深厚的专业知识,是您部署复杂 AI 数据中心架构时的可靠选择。

应对更艰巨数据挑战的节能解决方案

美光业界前沿 1γ 内存制程节点技术和 G9 NAND 存储技术不仅能够提供卓越的性能,更能为 AI 工作负载打造高能效的内存与存储解决方案,助力数据中心实现高性能与低功耗平衡,从而优化总体拥有成本 (TCO)。

从数据摄取到生成洞察,美光的产品组合可加速 AI 数据管道

为了充分利用 AI 的力量,必须以前所未有的速度和效率存储、准备和处理数据。美光推出了一系列面向 AI 数据中心的行业前沿内存和存储产品组合,可确保在数据堆栈的每个级别妥善存储并准备数据,从而为 AI 工作负载构建以数据为中心的坚实基础。我们的产品旨在加速 AI,将数据转化为智能。

AI 数据管道

充分发挥 AI 数据中心的潜力

每个 AI 服务器盒子内都呈现金字塔结构,或者说是内存和存储组成的层次结构,用于实现开创性的高速 AI。采用美光前沿技术搭建此类盒子,可减少数据中心瓶颈,提高可持续性和能效,同时降低总拥有成本。

点击金字塔,探索我们的 AI 解决方案组合

探索盒子内部

常见问答

美光拥有前沿的技术节点、足具韧性的供应链、AI 专业知识、出色的产品组合,以及逾 45 年的内存和存储经验,能提供非凡的 AI 数据中心解决方案。

前沿的技术节点:1β DRAM 和 G9 NAND 等创新可确保 AI 工作负载的高性能和高效率。

足具韧性的供应链:美光的供应链遍布全球,可确保业务不受自然灾害或地缘政治问题等局部中断的影响。

AI 专业知识:美光的智能制造和专业解决方案依托 AI 技术,有助于提高产品质量、缩短上市时间并提升良率。美光了解 AI,因为我们自己就在使用 AI。

前沿产品组合:从 12 层堆叠 36GB HBM3E 到速度超凡出众的美光 9550 NVMe 数据中心 SSD,所有这些产品确立了美光在内存和存储解决方案领域的优势地位。

逾 45 年的丰富经验:美光的悠久历史助其积累了开发出色解决方案所需的知识和经验。

综上所述,美光 AI 内存和存储解决方案是您方便、可靠的选择。机会不容错过,立即与美光合作,体验其业界前沿的 AI 解决方案!

AI 工作负载需要强大的计算能力,且会产生大量热量,因此有必要升级为强大的基础设施。有鉴于此,现代 AI 数据中心纷纷采用前沿散热技术、可再生能源和经过优化的布局,以实现理想性能和可持续发展。此外,由于 AI 应用通常依赖专用硬件来高效处理复杂的计算,因此选择适合的 CPU 和 GPU 也至关重要。这种精心选择有助于大幅提高处理能力,同时尽可能降低能耗,进一步提高 AI 数据中心的整体效率和有效性。

美光 8 层堆叠 24GB 和 12 层堆叠 36GB 的 HBM3E 解决方案具有超过 1.2 TB/s 的带宽,可提供行业前沿的性能,功耗也比市场上的其他同类解决方案降低高达 30%。

运行 AI 数据和机器学习数据工作负载时,内存对于系统整体性能而言至关重要。适合 AI 数据和机器学习数据工作负载的内存主要有两种:一种是高带宽内存 (HBM);另一种是双倍数据率 (DDR) 内存,特别是 DDR5。为 AI 训练数据工作负载选择哪种内存取决于很多因素,如 AI 模型训练算法的具体要求、自动化数据处理的规模和系统总体配置等。HBM3E 和 DDR5 均具有显著优势,在选择时应考虑 AI 内存的具体使用情况、预算及当前的硬件。美光针对 AI 模型训练提供了新一代 HBM3E 和 DDR5。

HBM3E 具有前沿的架构和高带宽容量,无论从带宽、速度还是能效方面看,目前都属于高端 AI 模型训练内存解决方案。相比 HBM 解决方案,DDR5 AI 训练内存模块是当前更为主流的内存解决方案,在大规模部署时更具成本效益。

如果总容量对您的 AI 工作负载而言最为重要,则可以选择美光 CZ120 内存扩展模块,它基于 CXL 标准,可提供比直连内存通道更高的性能。

要打造理想的机器学习数据和 AI 模型存储解决方案,需要考虑若干因素。重点考虑因素包括速度、性能、容量、可靠性、耐用性和可扩展性等。AI 工作负载的理想智能存储解决方案取决于具体应用的特定需求、预算及系统总体配置。美光提供性能出色的 NVMe SSD,可满足机器学习数据和 AI 模型存储的特定需求。美光 9550 NVMe SSD 采用业界前沿创新技术,速度超凡出众,可为 AI 及其他领域应用提供 PCIe® 5.0 级别的优异性能,以及高度的灵活性和安全性。美光 6500 ION NVMe SSD 是网络数据湖理想的大容量解决方案。

1 与此前的 1α 节点产品相比。

2 基于 JEDEC 规范。 

3 与(2023 年 6 月)市售的 3DS 模块竞品相比,测量数据的单位为 pJ/bit。

4 基于使用 Intel 内存延迟检查器 (Intel MLC) 的测试数据,测试比较了 128GB 8800MT/s MRDIMM 与 128GB 6400MT/s RDIMM。

5 基于 Stream Triad 的测试数据,测试比较了硬盘存储容量为 1TB 时 128GB 8800MT/s MRDIMM 与 128GB 6400MT/s RDIMM。

6 基于 OpenFOAM 任务能耗测试数据,测试比较了 128GB 8800MT/s MRDIMM 与 128GB 6400MT/s RDIMM。

7 与 LPDDR5X 8533 Mbps 相比

8 与上一代产品相比 

9 MLC 带宽(使用 12 通道 4800MT/s RDIMM + 4x256GB CZ120)与仅使用 RDIMM 的比较。

10 9650 SSD 在发布时是唯一市售 PCIe 6.0 SSD。此处的 SSD 对比基于截至 2025 年 5 月按收入排名前五的 OEM 数据中心 SSD 厂商当前量产且可供货的 PCIe 6.0 主流数据中心 SSD,数据来源于 Forward Insights 分析报告《2025 年第一季度 SSD 供应商状况》(SSD Supplier Status Q1/25)。

11 9650 SSD 的能效有所提高,性能是美光上一代产品(9550 SSD)的两倍,最大功率仍为 25W。

12 NAND 的对比基于截至 2025 年 5 月前五的 NAND 厂商量产的 NAND,数据来源于 Forward Insights 分析报告《2025 年第一季度 NAND 季度洞察》(NAND Quarterly Insights Q1/25)。这些对比基于产品发布时公开可用的信息以及美光的工程数据。

13  SSD 的对比基于截至 2025 年 5 月按收入排名前五的 OEM 数据中心 SSD 厂商当前量产且可供货的 PCIe 5.0 主流数据中心 SSD,数据来源于 Forward Insights 分析报告《2025 年第一季度 SSD 供应商状况》(SSD Supplier Status Q1/25)。性能比较基于公开可用的数据表信息,测试在美光实验室进行。

14 RocksDB 工作负载延迟和性能测试在美光实验室进行,使用了脚注 13 中提及的竞品 SSD。