设计工具
活动

美光参加 2019 年台北国际电脑展

2019 年台北国际电脑展举办了一系列针对不同技术趋势和主题的 COMPUTEX 论坛。美光科技计算和网络产品事业部 (CNBU) 高级副总裁兼总经理 Thomas T. Eby 代表美光参加了 COMPUTEX 论坛 AI 会议,并发表了名为“智能加速:利用内存增强 AI 性能”的主题演讲。

演讲伊始,Tom Eby 就表示,到 2023 年,全球需要移动、存储和分析的数据将达到 103 ZB。全球数据量在 9 年间增长了约 10 倍。美光称“数据是当今时代的货币”。在处理所有这些数据时,人们面临的挑战是如何将数据转化为信息或洞察,而 AI 恰好可以大展拳脚。大脑的主要功能是计算,而 AI 的核心则是内存和存储。

为更好地了解行业需求,美光委托独立第三方对设计 AI 平台的架构师和 IT 专家进行了调研。根据 2019 年 3 月发布的 Forrester 报告,开发 AI 系统的首要问题不是选择计算,而是如何构建内存和存储系统,以“满足计算需求”。调研发现,计算和内存越发相互靠近;90% 的受访者认为就近部署计算和内存对 AI/ML 很重要/至关重要;超过 90% 的受访者认为重新构建内存和存储系统对于 AI 系统的成功很重要/至关重要;受访者认为存储和内存的吞吐量比计算更重要。

CNBU 高级副总裁兼总经理 Tom Eby 表示:“美光本身就是 AI 应用的典范。将 AI 工具引入生产厂区后,我们可以提高生产良率,同时提升工作环境的安全性和整体效能。” Tom 进一步指出:“实施这些 AI 工具后,我们的产品良率成熟度提升了 25%,晶圆生产率提升了 10%,产品质量事件减少了 35%。”

一位男士在美光举办的活动上发言

在自动驾驶汽车的内存需求方面,Thomas T. Eby 指出,未来每辆 L5 自动驾驶汽车将配备 8-12 个显示屏,分辨率高达 4K-8K;为支持 V2X 通信,内存需要每秒处理 0.5-1 TB 的数据量;在信息娱乐系统中,内存带宽需求高达每秒 150-300 GB。未来,自动驾驶汽车将像飞机一样在内部设置一个黑匣子,每 30 秒记录一次涵盖汽车内外部情况的数据片段,因此内存带宽需求将达到每秒 1 GB。此外,在车辆的生命周期中,需要重复写入的数据总计高达 150 PB(拍字节),因此对内存和存储设备的性能和耐用度要求甚高。另外,在部署的服务器硬件类型、服务器的部署地点,以及影响内存及存储急剧增长的应用趋势方面,出现几个新的趋势,其中包括:

AI – 这些趋势的推动因素是 AI 等技术的应用,此类工作负载要求内存与计算尽可能接近,也被称为“存内计算”。

异构计算平台 – 基于 AI 工作负载和部署,用于 ML 和 DL 任务的传统 x86 平台将越来越少。异构计算平台的增长趋势意味着仅使用 CPU 的服务器将逐渐减少。计算选项包括 CPU/GPU/TPU/FPGA/SOC/ASIC。异构计算平台的增长趋势缘于不同的工作负载需要不同的优化计算解决方案,并且与内存紧密相关。

计算核心数量激增 – 增加的计算核心数量需要每个服务器有更多传统内容(DRAM 和存储) 核心数量日益增加:预计 2018 年至 2023 年服务器微处理器单元的复合年增长率为 4.5%{Source is IDC March 28, 2019}

美光是少数能够提供全面数据中心解决方案组合的厂商之一,可满足当前和未来的需求。美光提供涵盖存储和内存的完整分层解决方案,包括低延迟 DRAM、高带宽 NVDIMM、大容量 3D XPoint,以及各类存储解决方案(如 TLC NAND SSD 和 QLC NAND SSD 等)。美光拥有全面的 DRAM 和存储产品组合,可满足当前和未来各种数据中心的需求。

美光演示活动

洞察

浏览美光洞察,深入了解美光在 AI、科学、医学以及边缘计算等主题上的专业知识。