设计工具

无效的输入。不支持特殊字符。

AI

合适的作业工具:从月牙扳手到 AI 基础设施

Larry Hart | 2025 年 10 月

我先从一个故事讲起。几年前,我在院子里修理灌溉系统。当时我要拆下一个洒水喷头,本来需要固定尺寸的扳手,我却随手拿了一把可调尺寸的扳手。这个办法也算管用。我最终拆下了喷头,但过程中扳手反复打滑,不仅刮花了喷头,最后还划伤了我的左手食指,在手上留下了一道疤。这一切就是因为我没有固定尺寸的扳手。要是当初用对了工具,这活儿本该更快、更利落,也不会弄伤手。

今年在 FMS 峰会上,我又想起了这个教训。当我走过展厅并加入小组讨论时,我注意到人们谈论 AI 基础设施的方式发生了变化。这些对话不再只是关于速度与性能参数,而是开始聚焦于 AI 数据管道。从数据摄取到模型推理,与会者提出了更妙的问题:“预训练阶段用哪种内存最合适?” “哪些 SSD 针对数据转换进行了优化?” 行业正在走向成熟,而随着这种成熟,人们也更深刻地意识到,要在数据管道的每个阶段选用合适的服务器、合适的内存与合适的存储。如今的关键已不再是“能用就行”,而是“如何用得最好”。

数据是 AI 的核心

在美光,我们常说:“数据是 AI 的核心。” 这并非一句宣传语——而是我们的指导原则。AI 研究人员将他们的工作分为两大核心领域:数据准备与算法开发。两者都至关重要,但如果没有合适的基础设施提供支持,即使是最复杂的模型也无法充分发挥其潜力。

美光的产品组合:适用于 AI 管道的“精准工具”

正如固定尺寸的扳手能够完美契合工件、传递扭矩且不打滑,美光的内存与存储解决方案专为 AI 数据管道的特定阶段而设计——覆盖从数据摄取、数据转换,到模型训练与推理的全过程。

以下是我们产品组合中的几款代表性工具,以及它们所优化适配的 AI 数据管道阶段。

摄取阶段

在数据摄取阶段,存储系统需稳定捕获并承载海量数据流,确保过程不中断,这一作用至关重要。美光 6600 ION SSD 最高容量可达 245TB(即将推出),且具备高顺序读取速度,专为大规模处理并行写入与连续数据流而设计。这些解决方案能够消除瓶颈,更大程度地提高吞吐量,并确保从数据进入管道的那一刻起,AI 工作负载就能得到高效馈送。

美光 6600 ION SSD

  • 容量:E3.L 规格,最高容量可达 245TB(即将推出)
  • 性能:顺序读取速度达 14 GB/s
  • 接口:PCIe 5.0
  • 效率:能效比 HDD 高出 37%,机架密度比 U.2 SSD 高出 67%

该驱动器是大容量摄取和存储的理想选择,堪称无瓶颈馈送海量 AI 工作负载的首选工具。

在数据摄取阶段,内存充当高速缓冲区,确保海量数据能被捕获并暂存,且不会产生瓶颈。美光的 DDR5 MRDIMM 模块可提供快速数据获取所需的带宽和容量,支持无缝数据流传输及并行写入。这使组织能够高效地为其 AI 工作负载馈送数据,从而更大限度地降低延迟和提高吞吐量。

转换阶段

在数据转换阶段,高性能存储对于高效暂存、访问和迁移大型数据集至关重要。美光 7600 SSD 可提供支持快速 ETL 操作所需的容量、带宽和可靠性,助力实现内存层和持久层之间的无缝数据流动。这些解决方案可加速数据准备,减少瓶颈,并确保数据管道具备灵活性,可随时支持大规模训练与推理。

美光 7600 SSD

  • QoS:行业前沿,在 99.9999% 的负载场景下延迟低于 1 ms
  • 随机写入:400K IOPS
  • 效率:与主流高端 PCIe 5.0 SSD 相比,能效提高 79%,99 百分位延迟表现优化 76%。

非常适合用于数据转换与推理阶段。在这些场景中,可预测的性能与低延迟是不可妥协的核心需求。

在数据转换阶段,存内计算对于数据清洗、特征提取与数据增强至关重要。美光的 DDR5 MRDIMM 和 RDIMM 等大容量内存模块能够直接在内存中处理大型数据集,从而加速 ETL 操作。这样可以加快数据准备速度,实现更灵活的管道,为数据进入下一阶段做好准备。

训练和推理阶段

存储对 AI 性能起着关键作用,尤其在训练与推理阶段,这两个阶段对数据吞吐量与响应速度的要求极高。美光 9650 SSD 基于 PCIe 6.0 和 G9 TLC NAND 打造,可实现高达 28 GB/s 的顺序读取速度和 550 万次随机读取 IOPS,以出类拔萃的速度为 GPU 馈送海量数据集。其低延迟与高能效的特点,使其非常适合实时推理与可扩展部署,确保 AI 系统从模型开发到生产应用的全过程都能精准运行。

美光 9650 SSD

  • 接口:PCIe 6.0
  • 性能:顺序读取速度 28 GB/s,随机读取性能 550 万 IOPS
  • 效率:相比大多数 PCIe 5.0 硬盘,能效提升 67%
  • 冷却:支持液冷环境

这是适用于大规模训练和推理的“高性能扳手”——能以闪电般的速度为 GPU 馈送数据。

内存的作用往往被忽视,但它却是 AI 模型构建与实现的核心支撑。MRDIMM 是处理计算密集型工作负载的“精准工具”。训练和推理是 AI 生命周期中截然不同但同样关键的阶段,二者均需专用的内存解决方案。在训练阶段,美光的 DDR5 MRDIMM 可提供支撑 GPU 高效运行所需的高带宽与大容量,助力实现更快的处理速度,并支持规模更大、复杂度更高的模型。另一方面,推理阶段依赖低延迟、高可用性的内存。美光的 DDR5 MRDIMM 经过端侧优化,在此场景下可确保对数据与模型的快速访问,为从数据中心到端侧的实时决策与可扩展部署提供支持。

美光 DDR5 MRDIMM

  • 速度:高达 8800MT/s
  • 容量:每台服务器最高支持 4TB
  • 效率:与 6400MT/s RDIMM 相比,任务完成速度提升 1.7 倍,系统能效提升 1.2 倍

核心启示

无论是拧紧螺栓,还是搭建 AI 数据中心,选对工具都能带来完全不同的结果。在美光,我们不只是在制造产品,更是在打造专用解决方案,以匹配 AI 工作流程的独特需求。

因此,下次当您伸手去拿可调扳手时,不妨问问自己:有没有更适合这项工作的工具? 无论是 AI 领域,还是日常生活,用对工具终会带来回报。

解决方案营销高级总监

Larry Hart

Larry Hart 现任美光核心数据中心业务部门 (CDBU) 解决方案营销高级总监,致力于打造和推广具有影响力的技术解决方案。他在产品定价、产品营销、推式营销、产品管理和生态系统开发等方面拥有丰富的经验,负责领导美光的营销战略,旨在推动并改善生态系统内部的技术协调,根据客户的需求推广美光的解决方案,为客户提供更大的总体商业价值。

Related blogs