我们生活在一个让技术用户激动不已的时代。AI 已成为一股市场力量,正在改变经济的每一个领域。人们能够在商业应用中嵌入并提供 AI 和机器学习 (ML) 技术,将主流分析/AI 技术作为实用的商业推动力。然而,专家认为,我们目前仅仅处于 AI 的早期阶段。尽管人们对流行的 AI/ML 热点话题议论纷纷,但要找到真正可行的实用建议却非常困难。
因此,就像坐在前排那个超级聪明的孩子一样,我们举手喊道:“来,来!让我们来!”
美光存储团队发布最新白皮书的动机是为了提供实用的 AI 建议,该团队为数据中心和云管理设计了革命性的 3D NAND 闪存存储技术。下载“AI 和机器学习需要快速、灵活的基础设施”,了解如何通过三项关键创新来实现主流 AI,以及为什么只有采用合适的存储和内存才能实现更快速、更准确 AI/ML 训练和推理。
为什么要关注 AI 存储和内存? 我的美光同事 Wes Vaske 探讨了 AI/ML 系统的基础设施。在博客文章“通过内存和存储深入了解数据智能的核心”中,他表示,在讨论底层存储或内存时缺乏性能数据。而人们的对话主要聚焦于现有的各种计算资源(GPU、CPU、FPGA、TPU 等)。但这种状况正在发生变化,这种情况与我们仍处于“早期阶段”有关。Wes 表示:“未来将取决于我们能否构建适用的存储系统,从而满足下一代 GPU 的要求。”
摄取、转换、训练、执行
在 AI 技术向具有高适应能力、自我训练能力和广泛适用性的主流 ML 系统转型的过程中,美光内存和存储一直在发挥重要作用。我的另一位同事,美光的高级技术营销工程师 Tony Ansley 发布了一个博客文章系列,包含三篇文章,最后一篇是“人工智能和机器学习需要高性能存储”。Tony 围绕 AI/ML 工作流的四个阶段展开了关于基础设施的讨论和建议:摄取、转换、训练和执行。
Tony 表示:“我想要强调我们需要克服的主要障碍,以及美光如何帮助组织作为商企在 AI/ML 领域起步。” 根据 Tony 的博客和美光提供的其他内容(例如 AI 信息图),新白皮书详细介绍了闪存和存储如何让您的处理引擎更便捷地获取更多数据,从而实现更快速的分析。
速度更快,并行进程更多
GPU 是加快处理速度的关键推动因素,它可以并行处理数百万个操作,而 CPU 则使用顺序执行。将这些美光产品结合起来,可以提供广泛的高性能组件,它们对于运行先进 AI/ML 至关重要,甚至对于现今部署越来越较广泛的深度学习解决方案也是如此。如果解决方案能够较快地为 AI 引擎获取可用的训练数据集,您就能较快地部署并受益于这项新技术,构建更智能的边缘功能。
当快速的高性能 SSD 支持并行进程时,便可加速机器学习工作流
小身材、大能耐的网络边缘型内存设备
无论是在云端还是嵌入在移动和边缘设备中,高性能、大容量的内存和多芯片封装都可以为 AI 训练和推理引擎提供动力。用于 AI 系统的创新内存技术是美光关注的重点。白皮书更详细地介绍了如何实时提供大量数据来训练和加速推理,以及如何为边缘设备提供内存和存储,使其保持智能、快速和高效。
及时关注面向 AI/ML 的内存和存储
美光委托 Forrester Consulting 开展的一项研究表明,AI 架构逐渐成为大多数组织关注的焦点。当被问及以下问题时:为了实现未来的 AI/ML 训练目标,升级或重新构建内存和存储是否至关重要? 在 200 位 IT 和业务专家中,80% 的情况会回答“是”。这些受访者在美国和中国大型企业中负责管理复杂数据集的架构或策略。此外,受访者还表示,更紧密地结合内存和计算对于 AI/ML 的成功至关重要(90% 的受访者如此认为)。
欢迎下载“AI 和机器学习需要快速、灵活的基础设施”。敬请访问 micron.com/AI,详细了解美光产品如何帮助您在 AI/ML 项目中取得成功。要了解美光的最新动态,请在 Twitter 上关注我们 @Micron,并在 LinkedIn 上与我们联系。