设计工具

无效的输入。不支持特殊字符。

美光助力加速端侧 AI 应用

AI 可在所有端侧设备上实现

长期以来,“终端”一直代表着“结束”“界限”“边界”“限制”。但是,如果终端成为 AI 的起点,将会带来怎样的用户体验?请阅读我们的系列文章,了解美光的技术除了能在您的设备上存储数据外,还能如何将数据加速转化为可行动的智能。

一名冲浪者朝着一片超现实的海洋边缘破浪前行,海洋边缘仿佛坠入太空

美光正在将数据加速转化为智能

AI 无处不在

AI 正在从云端扩展到数据在端侧设备上存储的位置。无论是云端 AI、端侧 AI,还是中间的每一个处理过程,都有相应的美光技术提供支持。

更多、更快、更高效

云端、数据中心和端侧设备上的 AI 需要更多具备更大容量、更快速度、更高效率的内存与存储。

您值得信赖的端侧 AI 顾问

我们的行业前沿内存和存储解决方案旨在加速 AI 革命,合作伙伴相信我们的解决方案可应对他们的 AI 数据挑战。

有关端侧 AI 的五大须知

AI 行业正在飞速发展。跟上新技术的迭代与未来趋势并非易事。阅读这篇文章,了解您所需要的信息,包括 AI 从云端到端侧设备的转移;内存和存储如何成为 AI 时代成功的关键;以及美光如何推动端侧创新。

高层建筑的鸟瞰图,众多高耸的建筑物之间有一个 L 形间隙,可以看到引人注目的天际线,凸显了城市建筑的密度和几何结构。

端侧 AI 的机会和增长前景

面向 AI 应用的内存和存储产品

美光的节能型内存和存储解决方案组合能够在各类端侧设备上实现 AI,包括汽车、智能手机、PC 等。

深入了解端侧

详细了解美光如何支持端侧市场和行业。

常见问答

AI 始于数据,而数据来自端侧。用于数据中心 AI 训练的大部分数据均采集自端侧设备。通过分布式 AI 模型,AI 将同时利用云计算和端侧计算,实现更高效、更可扩展的解决方案。长期以来,AI 处理一直集中在大型数据中心内部。然而,随着对实时应用的需求日趋旺盛,分布式 AI 开始兴起。这种方法除了利用云端进行大规模计算和模型训练外,还支持在端侧设备上进行本地数据处理,从而实现设备端决策。它还能确保 AI 功能在各种环境中既易于获取又高效运行。美光的高带宽内存 (HBM) 和 LPDDR5X 等先进内存和存储解决方案对于支持这种混合方法至关重要,可确保在不同环境中实现高效、可扩展、响应迅速的 AI 操作。

内存对于 AI 至关重要,因为内存能支持 AI 对海量数据的快速访问,而这是训练复杂模型和做出实时决策的关键前提。没有数据,AI 便无从谈起。无论是云端还是端侧,为充分释放 AI 的潜力,数据的存储、传输和处理必须达到极高的速度与效率。美光的高性能内存解决方案可确保 AI 系统能够处理大型数据集,并快速执行计算,从而获得更精准的结果。

存储对 AI 同样不可或缺,它为高效管理全球数据提供了基础架构。美光的高性能存储解决方案具备容纳全球数据的容量,并保证能够快速访问这些数据,从而使 AI 系统能够快速处理大型数据集,做出智能决策。这种快速访问数据的能力加速了各种 AI 应用中的 AI 创新进程。

端侧 AI 市场正在大幅增长。据 Gartner 估计,到 2025 年,约 75% 的企业数据将在传统的集中式数据中心或云端之外生成和处理,而 2018 年该比例约为 10%。这一显著转变主要由于人们对实时数据处理和效率提升的需求越来越迫切,由此推动 AI 在汽车、智能手机和 AI PC 中得到广泛部署。2024 年,端侧 AI 的市场规模约为 125 亿美元。预计从 2025 年到 2034 年,该市场将以 24.8% 的复合年增长率增长,到 2034 年达到 1,094 亿美元。市场规模的增长主要得益于神经网络技术的进步、AI 设备的普及,以及对高效安全数据处理的需求。