美光与 Magnum IO GPUDirect Storage 精诚合作,为人工智能 (AI) 和机器学习 (ML) 领域带来颠覆性创新。
一个人的职业生涯中会有许多里程碑。有些可能是长期里程碑,例如庆祝在公司任职 30 周年。有些可能是改变工作角色,以承接新的责任或项目。有些甚至可能是为了把握新机遇而更换公司。
有时候,一个人会参与到某项彻底改变整个行业的技术中,随后一直从事该技术。更罕见的是,一个人在某项技术萌芽之初就参与其中,并终生从事此项技术。最近,在我的职业生涯中恰好遇到了后面两种情况。我很高兴能为 NVIDIA 的行业颠覆性创新技术 Magnum IO GPUDirect Storage(现已达到 1.0 版)提供初始支持。此技术实现了 GPU 和存储之间的直接路径,可以从底层提供更快的数据路径和更低的 CPU 负载。
行业颠覆性创新的有趣之处在于,将其推向市场需要付出巨大的努力和大量的时间。我回顾了一下之前的笔记,发现我们首次与 NVIDIA 讨论 GPUDirect Storage 是在 2018 年 11 月 7 日,大约是两年半之前。当时我与业内技术精英共聚于 NVIDIA 总部——有 NVIDIA 的 David Reed、Sandeep Joshi 和 CJ Newburn,以及美光的 Currie Munce。NVIDIA 分享了他们对这项技术的愿景,并询问我们是否有兴趣与他们合作。看到这里您可能已经猜到:我们立即举双手赞成,愿意努力支持这项新兴技术。
为何如此? 因为,从一开始就很明显,这项技术将为人工智能 (AI)、机器学习 (ML)、深度学习和高性能计算 (HPC) 中需要 GPU 的工作负载提供更高性能的存储。这些工作负载通常具有庞大的数据集,因此 GPU 内存和存储之间的直接内存访问 (DMA) 可降低 IO 延迟,同时减少 CPU 上的负载。作为美光的一项重大创新,这种方式显著缩短了获得洞察的时间,创新者可以更快速地生产疫苗,发现更省油的运输方式,或者为世界上的偏远地区开发出更高效的外卖方式。
在这条创新之路上,我们详细介绍了双方的精诚合作,以展示这项技术的成效。以下是一些您可能感兴趣的精彩文章。
- 2019 年 3 月:让 GPU I/O 在当今和未来的平台上蓬勃发展
- 2019 年 8 月:GPUDirect Storage:存储和 GPU 内存之间的直接路径
- 2020 年 7 月:借助 NVIDIA GPUDirect Storage,充分发挥美光 SSD 对于 AI/ML 工作负载的作用
- 2020 年 11 月:分析存储对 AI 工作负载的影响
- 2021 年 2 月:通过构建架构克服 AI 存储的挑战
- 2021 年 3 月:Barton Fiske 和 Wes Vaske 探讨如何利用 NVIDIA® GPUDirect Storage 克服 AI 数据瓶颈
今天,我们热烈祝贺 NVIDIA 宣布推出 Magnum IO GPUDirect Storage 1.0 版!当我回顾 2019 年 3 月 NVIDIA 博客文章之前的一些会议笔记时,发现 NVIDIA 曾经询问我们是否愿意通过一些简单的评论支持那篇博客文章,例如“美光很高兴参与其中。” 我们的答案非常坚定——当然!祝贺 NVIDIA 与美光以及更广泛的生态系统合作开发这项颠覆行业的技术。美光很高兴能帮助您缩短从数据中提取有价值洞察的时间。