- US - English
- China - 简体中文
- India - English
- Japan - 日本語
- Malaysia - English
- Singapore - English
- Taiwan, China - 繁體中文
美光科技推动 AI 数据中心走向未来
- 近内存
- 主内存
- 扩展内存
- 本地 SSD 数据缓存
- 网络数据湖
充分发挥 AI 数据中心的潜力
每个 AI 服务器盒子内都呈现金字塔结构,或者说是内存和存储组成的层次结构,用于实现开创性的高速 AI。采用美光前沿技术搭建此类盒子,可减少数据中心瓶颈,提高可持续性和能效,同时降低总拥有成本。
点击金字塔,探索我们的 AI 解决方案组合
探索盒子内部
地球上的盒子不管多先进,都离不开地球
常见问答
1 与此前的 1α 节点产品相比。
2基于 JEDEC 规范。
3 与(2023 年 6 月)市售的 3DS 模块竞品相比,测量数据的单位为 pJ/bit。
4 基于使用 Intel 内存延迟检查器 (Intel MLC) 的测试数据,测试比较了 128GB 8800MT/s MRDIMM 与 128GB 6400MT/s RDIMM。
5 基于 Stream Triad 的测试数据,测试比较了硬盘存储容量为 1TB 时 128GB 8800MT/s MRDIMM 与 128GB 6400MT/s RDIMM。
6 基于 OpenFOAM 任务能耗测试数据,测试比较了 128GB 8800MT/s MRDIMM 与 128GB 6400MT/s RDIMM。
7 与 LPDDR5X 8533 Mbps 相比
8 与上一代产品相比
9 MLC 带宽(使用 12 通道 4800MT/s RDIMM + 4x256GB CZ120)与仅使用 RDIMM 的比较。
10 性能比较基于产品发布时市售的高性能 Gen5 SSD 的公开可用数据信息,这些 SSD 具有 1 DWPD 的耐用性和 7.68 TB 的容量。在队列深度为 512 时的顺序和随机吞吐量。多个公开来源提到了大型加速器内存 (BaM)(例如:https://www.tomshardware.com/news/nvidia-unveils-big-accelerator-memory-solid-state-storage-for-gpus(opens in a new tab)),以及使用 NVIDIA H100 GPU 的图神经网络 (GNN) 训练工作负载中的 GPU 启动的直接存储 (GIDS),这项技术已在美光实验室中进行了测试,并与高性能 Gen5 SSD 进行了性能对比。
11 使用 Llama3 LLM(4,050 亿个参数)模拟检查点工作负载。该模型在一个 8 GPU 服务器上运行。检查点大小为 415 GB。图中显示了与 Solidigm D5-P5336 相比,运行单个检查点任务所需时间、单个检查点的 SSD 能耗,以及检查点操作期间的 SSD 吞吐量。详细信息请参见美光 6550 ION SSD AI 技术简介(opens in a new tab)。
12 比较时使用了 6550 ION 发布时公开可用的竞品信息,其中 6550 ION 的峰值功耗为 20W,竞品的峰值功耗为 25W,因此 6550 ION 的峰值功耗比竞品低 20%。
13 美光 6550 ION 容量高达 61.44 TB。支持 E3.S 的服务器可以在 1U 空间内配置多达 20 块 SSD。