设计工具

无效的输入。不支持特殊字符。

美光,推动 AI 发展的隐形力量

美光领导层如何看待 AI 的未来

美光高管就以下话题分享了各自的观点:数据、内存和存储如何在背后推动 AI 革命,通过提升 AI 应用的规模和速度,加速释放人类潜能。

Sanjay Mehrotra

董事长、总裁兼首席执行官

待定

Sumit Sadana

执行副总裁兼首席业务官

待定

Manish Bhatia

全球运营执行副总裁

待定

AI 突破背后的隐形推手

AI 的每一次突破都由数据驱动,而数据则存在于美光生产的内存和存储设备中。从高带宽内存 (HBM) 到 AI 存储解决方案,美光用数据为 AI 基础设施提供动力,让它得以构建、运行并实现加速。

绽放的花朵与数据层

信息图

AI 背后的推动力——内存与存储

随着 AI 能力呈指数级增长,美光解决方案的速度、容量和规模也同步提升。如今的内存与存储早已不是品类单一的普通商品,而是专为推动 AI 发展而设计、助力企业实现差异化竞争力的战略性产品。

AI 能力指数级增长曲线

幕后英雄:AI 运行依赖的底层硬件

了解美光业界前沿的 AI 内存与存储解决方案为何成为 AI 基础设施的关键组成部分。

文章

IDC:内存在高性能计算和 AI 中的重要作用

IDC 研究副总裁 Jeff Janukowicz 讨论了内存在 AI 工作负载中的重要性,并解释了为何“没有数据,AI 便无从谈起”。

明亮的白色能量线条互相交叉,形成一个正方形

从云端到端侧

AI 正在向数据生成的位置转移。从云端到端侧设备,了解美光如何在不断增长的细分市场中为 AI 解决方案提供支持。

向专家学习

AI 发展日新月异。浏览美光术语库,了解 AI 相关术语。

常见问答

大规模 AI 所需的高能效。美光不仅提供业界前沿的 AI 技术解决方案,在产品的每瓦性能方面同样占据优势。美光拥有垂直整合以及美国本土制造能力,可为全球要求至为严苛紧迫的 AI 工作负载提供安全、可持续的供应链保障。

  • 美光 HBM3E 解决方案基于美光的 1β (1-beta) DRAM 制程节点打造,采用的硅通孔 (TSV) 技术可大幅提升存储密度,结合创新的先进封装技术,显著改善了产品的功耗与热特性,其每瓦性能约为 HBM2E 的 2.5 倍
  • 创新无忧。美光是业界前沿的内存和存储解决方案提供商。与美光合作,可确保您的 AI 发展计划在未来不会遭遇硬件瓶颈。
  • 美光的 12 层堆叠 HBM3E 提供高达 1.2 TB/s 的带宽,已应用于多款将于 2026 年推出的业界前沿 AI 加速器。

要打造先进的 AI 技术解决方案,需要能够支持整个数据管道的 AI 产品。

凭借业界前沿的设计与制造能力,美光推出了种类丰富的内存与存储解决方案。这些产品是构建数据中心的核心,为您的 AI 解决方案奠定了坚实的基础。

  • 高带宽内存 (HBM)HBM3E 和 HBM4 等产品专为 AI 加速器设计,可提供训练和运行大规模 AI 模型所需的超高带宽,以及对紧耦合内存的高速访问。HBM 主要用于支持数据密集型工作负载(例如 AI 模型训练和需要高吞吐量的 AI 推理),在这些应用中,优化并提升并行计算的性能至关重要。阅读 HBM4 新闻稿
  • DRAM:美光提供种类丰富的大容量、低功耗 DRAM 模块和 DRAM 器件,可用作 AI 系统运行时所需要的内存,在数据中心、AI PC、移动设备和车载系统等环境中保存活动数据、模型参数,并支持各种运行时操作。在这些系统中,内存的速度、效率和响应能力至关重要。
  • 固态硬盘 (SSD):高性能数据中心 SSD(如美光 9650 NVMe SSD6600 ION NVMe SSD)可用于处理数据密集型 AI 工作负载,加速大规模数据集的采集与处理过程,避免 GPU 闲置,从而节约大量成本。
  • 内存扩展Compute Express Link (CXL) 等技术使 AI 系统能够实现可扩展的内存容量。CXL 技术支持内存池,可实现内存的按需分配,不仅能提升系统级别的带宽和能效,还能减少数据中心内部的资源浪费,从而降低总拥有成本 (TCO)。

内存和存储是 AI 基础设施的关键组成部分,它们为 AI 工作负载提供了运行的空间,其性能决定了系统在 AI 训练和推理工作流中移动、处理和保留数据的速度、效率和成本效益。

内存(例如 DRAMHBM)可以让频繁使用的 AI 模型、参数和数据集持续位于靠近处理器和加速器的位置。随着 AI 模型的规模和复杂性不断增长,大容量、高带宽内存已成为至关重要的基础硬件,有助于消除数据处理瓶颈、提高图形处理单元 (GPU) 和 AI 加速器的利用率、实现更快的模型训练和实时推理。

存储(包括基于 NAND 的 SSD)能够存放 AI 所需的海量数据,包括原始训练数据、检查点记录数据和训练好的模型数据等。高性能、低延迟存储可实现更快的数据采集、对海量数据集的快速访问,以及在数据中心和端侧的高效扩展。

内存与存储相结合,能够:

  • 大幅缩短数据移动导致的延迟,从而加速 AI 训练和推理
  • 提供更大容量和更高带宽,从而支持更大、更复杂的模型
  • 优化数据流,从而提升能源效率,降低总拥有成本
  • 跨云端、企业、汽车和端侧进行大规模 AI 部署

随着 AI 继续演进,计算、内存和存储领域的同步创新均至关重要。内存和存储技术的发展可确保 AI 基础设施能够提升性能、效率和可靠性,以满足下一代 AI 工作负载的需求。

内存和存储是现代 AI 基础设施的关键组成部分,美光持续提升内存和存储的性能,以此加速 AI 发展。从与加速器紧密集成的高带宽内存 (HBM) 和 AI 内存,到支持数据采集、检查点记录和 AI 推理的 AI 存储设备和 AI SSD,美光的产品助力数据在 AI 管道中高效稳定地流动。

通过聚焦每瓦性能、带宽和可扩展性,美光确保您的 AI 解决方案在数据中心和端侧实现可持续扩展,从而更快、更高效地将数据转化为智能。

设计工具

使用我们的设计工具和资源来测试、构建和维护高性能解决方案,为您的设计流程提供支持。

搜索、筛选和下载数据表

获取有关产品特性、规格、功能等的详细信息。

订购美光样品

为您提供美光内存样品的在线订购与订单追踪平台。

下载及技术文档

这些资源可以帮助您设计、测试、构建和优化创新解决方案。