3 月 20 日,我曾有幸在 CFMS(中国闪存市场峰会)| MemoryS 2024 上发表了主题演讲。我演讲的题目是“美光内存和存储:推动 AI 革命”,欢迎大家移步观看。
目前我们行业出现了很多新趋势,其中最值得关注的趋势之一 (当然,这也是峰会的一个讨论主题)是,数据中心和边缘设备,特别是 AI 个人电脑和 AI 智能手机,要如何相互配合才能最高效地提供 AI 体验,节省资源。与几年前认为所有计算功能都将转移到云端的传统观点相比,这是一个显著的方向变化。那时候,人们对世界的设想是,每个边缘设备都只是一个瘦客户端,即,所有应用都在云端运行,所有数据都存储在云端,所有设备都始终连接到云端。
也许在遥远的将来,随着技术趋势的波动,这种设想会再次出现。但在可预见的未来,由于功耗、成本、延迟、网络带宽的限制,以及人类能够以多快的速度构建(并负担得起)数据中心和通信基础设施的现实,让所有工作负载都在云端运行根本就不可行。这些现实对于内存和存储的未来是有意义的。
第一个重要的认识是,降低数据中心的功耗比以往任何时候都更加重要。它一直是降低总成本、节约能源和最大限度减少数据中心碳足迹的重要指标。但现在它已经成为必要举措,因为它已经开始限制大型云服务提供商和 AI 基础设施运营商构建基础设施的能力。
这是什么意思?
- 与传统 HDD 相比,使用大容量 SSD 可显著减少数据中心的空间占用,最高达五倍。虽然 SSD 的初始投资更高,但从长期来看,它在运营费用、冷却、电力和空间方面的节省相当可观,因而计算性能(TOPS,每秒可执行的万亿次操作)更高。从单位可用容量 (TB) 的功率来看,HDD 需要缩短行程才能实现最佳 AI 工作负载性能,导致它的功耗高达目前 30.82TB SSD 的 2.3 倍1。如果是比较 HDD 与未来容量更大的 SSD,这一差距预计将增大到五倍。因此,考虑到建设额外数据中心和发电厂带来的高昂成本,投资 SSD 在经济上是明智的。
- 本地存储的性能和容量需求(主要是用于 AI 手机的 UFS 和用于 AI 电脑的 NVMe SSD)将不可避免地以比先前预期更快的速度增长。在过去的五到十年里,游戏和媒体内容制作应用(想想 YouTube、Instagram 和 TikTok 这些拥有巨大影响力的应用)推动了对更高性能和更大容量的需求。但通常情况下,在成熟市场中,这些应用只占这些设备所有用户的不到 20%。AI 是一种无处不在的应用,每个人都会使用它,这将进一步推动本地存储需求,就像游戏和媒体内容制作应用之前所做的那样。在这个领域,用户体验是王道,这就是美光专注于为最苛刻的应用和用户体验完善产品的原因。
对存储和创新而言,现在是令人振奋的时刻!智能时代即将到来,我们可以为全人类塑造更美好的未来。而诸如美光 HBM3E、大容量 DIMM、LPDDR5X、LPCAMM、数据中心 SSD、客户端 SSD 和 UFS 等内存和存储技术进步无疑将成为这一未来的关键组成部分。
1. 拥有 20 个 SSD 的 SSD 系统机箱功率 = 1000W/系统 = 50W/SSD
拥有 30 个 HDD 的 HDD 系统机箱功率 = 1200W/系统 = 30W/HDD
SSD W/TB = 50W/30.82TB,HDD W/TB = 30W/8TB 中的可用 HDD 容量