每年这个时候总是让我感到分外欣喜。很多人会有同感,是因为假期即将来临;而我之所以感到欣喜,是因为在全球超级计算大会 2018 (SC18) 上所看到的推动高性能系统向前发展的技术成就和实例。大会全程与神经网络 (NN) 有关——从机器学习 (ML) 的爆炸式开幕,到深度学习 (DL) 的体验,最后以人工智能 (AI) 来清场。SC18 大会上频频涌现令人振奋的洞察,预测并展示了高性能系统的发展方向。
新闻
美光通过两份新闻稿拉开了 SC18 的序幕:第一份新闻稿是“美光加入 CERN openlab,为推动科研注入新的机器学习能力”,重点介绍了美光与 CERN openlab 的新项目合作,其中美光将利用已开发的 AI 解决方案 {ACS solutions}从 PB 级数据中为研究界寻找有价值的信息。第二份新闻稿“美光和 Achronix 为机器学习应用推出采用高性能 GDDR6 内存的下一代 FPGA”,介绍了 Achronix 的 FPGA 在 7 纳米节点架构上如何采用 GDDR 6 内存来支持 AI 应用。
热闹非凡的美光展位
美光展位安排了 30 多场演讲,让您无需担心错过重要内容。其中包括来自 CERN Openlab、@AMD、戴尔、Achronix、NYRIAD、AMAX、@PenguinHPC、研华、One Convergence 以及美光的思维领导力演讲。主题范围从“AI 如何影响架构革命以实现 ML/DL”延伸到各种新兴的解决方案,包括最新的 QLC 存储技术和高性能 GDDR6 内存等等。
这些对话精彩纷呈。与数据科研人员齐心合作,为下一代 FPGA 配备高性能内存,并与美光展位的生态系统合作伙伴互动,让人们意识到内存和存储在 AI 系统中发挥的关键作用。
演讲台上:在参展商论坛演讲中,美光计算和网络业务部门战略营销总监 Andreas Schlapka 概述了很多美光内存和存储选项在训练和推理 AI 应用中的机会。演讲展示了从数据中心到边缘部署 AI 应用时需要选择合适的内存和存储。演讲内容引发了观众的疑问:“内存带宽墙是否仍然存在?” 这一问题为计算和内存之间新的系统解决方案带来了很多机会。
美光高级计算解决方案团队总监 Mark Hur 介绍了一系列机器学习解决方案的背景知识,这些解决方案的开发旨在助力 AI 应用。这些 IP 卡使 FPGA 更具灵活性,并且可利用通用的神经网络编程技术,以及针对高性能内存带宽优化的 IP。
AI 演示
美光展位上提供丰富的演示,包括来自 NYRIAD 的“带有 NVMe 接口 GPU 控制器的加速显示器”,其中带有 GPU 的系统以 30fps 的速度执行 4K 视频馈送,关闭限速器后,速度会提高到 1500fps —— 变成以快速模式播放的有趣视频。其他演示还包括来自美光的“持久内存虚拟化”性能示范、使用美光 ML 解决方案的“ML 注入风格转换”、采用研华系统的“高性能 NVMe”,以及非常有趣的“AI 情绪检测”(具备表情符号显示,让您可以通过表情符号表达自己的情绪)。此功能由 NVIDIA DGX 工作站上运行的应用提供。我认为这些演示既含有丰富的信息量,又兼具娱乐性。它们为如何在 AI 中使用内存和存储提供了丰富的信息,而在执行过程中则非常有趣。
从 SC18 总结中可以看出,美光专注于通过改变世界使用信息的方式来丰富全人类的生活。人工智能 (AI)、机器学习 (ML) 和 深度学习 (DL) 确实是实现公司愿景的重要推动力。由于我们目前处于 AI 发展的早期阶段,还需要学习很多知识,才能真正了解如何改变从数据中心到边缘的架构,以实现预期的结果。但有一点可以肯定,实现这些解决方案需要选择内存和存储,而美光已经准备好迎接合作、创新和交付的挑战。