据 IDC 预测,从 2021 年到 2027 年,针对新型物理资产和流程的数字孪生建模数量比例将从 5% 增加到 60%。尽管将资产行为中的关键要素数字化不是什么新鲜概念,但该技术涉及多方面能力,如精确传感、实时计算以及如何更有效地从海量数据中获取洞察等,以使机器和运营系统更加优化,并帮助加快扩大规模,加快上市速度。此外,对人工智能/机器学习(AI/ML)模型的支持将有助于提高流程效率、减少产品差错,并能够提供出色的整体设备效率(OEE)。
满足上述所有技术要求是一件十分困难且复杂的事情。理解了这一点,我们便不难想到,内存和存储对于实现数字孪生至关重要。
第一项挑战:提取恰当的数据
数字孪生的设计不仅仅涉及对物理特征的单独感测,还需要能够建立外部和内部子系统之间相互作用的模型。例如,针对发电机振动的谐波剖面进行的感测不仅需要得出相关图像,还应该帮助人们深入理解该图像与电机、轴承、皮带的物理特性之间的关联性,以及对这种相互作用的影响。在针对某台机器打造真正的“数字孪生”时,如果只是在它周围安装一些传感器,而完全没有意识到子系统之间互相依赖的重要性,将无法得到精确的“孪生”。
为已有系统构建数字孪生将更为复杂,在运行多年的机器上添加新传感器并非易事。事实上,概念验证的第一步是添加自己手工制作的电路板或嵌入式电路板,这些电路板仅提供最少的接口,支持从传感器到云的数据转换。添加连接板相对比较简单,实际的建模工作则非常复杂,首先需要存储动态数据,然后将这些数据与经过训练的模型进行比较。此外,考虑到可能要为数十种或数百种类型的系统进行建模,这种方法肯定不是最具可扩展性的解决方案。
与“计算”相关的架构和硬件将不断演进
内置卷积神经网络(CNN)加速器的新处理器架构出现后,加快了推理计算。这些设备不仅可以接收模拟信号,还可以在设备内部进行处理,滤除数据噪声,仅保留与模型相关的值。这些特性专为智能端点量身定制,其并行操作性能可达 GFLOPS(每秒十亿浮点数运算)量级,略低于 20 TOPS(每秒万亿次运算)。
低成本、低功耗的 GPU 也非常重要。它们提供了基于硬件的机器学习计算引擎,这些引擎的设计更加敏捷,计算能力强劲,可实现更高的 OPS(每秒操作数)。已在现实中应用的此类 GPU 包括低于 100 TOPS 的边缘专用 GPU,以及更多的基础设施级别 GPU(高于 200+ TOPS)。
低功耗 DRAM 内存是 AI 加速解决方案的理想选择
为实现上述计算性能,处理器需要足够大的 IO 位宽,这一点应该很容易理解。带有加速器的多核通用 CPU 可能需要 x16、x32 位的内存位宽,而更高端的 GPU 可能需要高达 x256 位的 IO 位宽,具体位宽要求与架构有关。
由此带来的一个直接问题是,如果在计算时需要将千兆字节量级的数据移入或移出外部内存,那么内存必须具有更高的总线带宽性能。下表显示了对于内存接口的性能要求(基于 INT 8 TOPS 要求)。
随着新标准的不断推出,内存性能持续提升,以满足 AI 加速解决方案越来越高的要求。例如,相比之前的技术,LPDDR4/x(低功耗 DDR4 DRAM)和 LPDDR5/x(低功耗 DDR5 DRAM)解决方案的性能有了显著提升。
LPDDR4 的传输速率高达 4.2 Gbps,并支持高达 x64 的总线位宽。与 LPDDR4 相比,LPDDR5x 的性能提高了 50%,传输速率翻了一番,达到 8.5 Gbps。此外,LPDDR5 的能效相比 LPDDR4X 高 20%。这些重大进步有助于提高整体性能,并使内存的性能与最新的处理器技术相得益彰。
嵌入式存储可应对机器学习的复杂性
计算资源面临的限制不止有处理单元的原始 TOP 或内存架构的带宽。随着机器学习模型变得愈加复杂,模型的参数数量正在呈指数级增长之势2。
为了实现更高的模型效率,机器学习模型和数据集正在不断扩张,因此还需要拥有更高性能的嵌入式存储。典型的托管型 NAND 解决方案(例如速率高达 3.2Gb/s 的 eMMC 5.1)是代码调出的理想选择,同时也适用于远程数据存储。UFS 接口等较新的技术可将性能提升至原有技术的 7 倍(23.2 Gb/s),能够支持更复杂的模型。
这些嵌入式存储技术也是机器学习相关资源链的一部分。
选择适合数字孪生的内存解决方案
工业应用中的边缘端点和设备将产生 TB 量级的数据,这是因为,除了要确保保真度之外,还包括通过摄取数据来帮助改进数字模型,而这些正是数字孪生的需求。
此外,应用的代码也需要不断增加,以管理数据流和边缘计算平台依赖的基础设施,以及添加 XaaS(即服务)业务模型。
数字孪生技术发展前景广阔。但是,如果只构建了部分“孪生体”,例如只针对“鼻子”或“眼睛”进行了建模,缺乏完整的面部图像,就很难确定这是不是真正的“孪生体”。所以,在以后讨论数字孪生时,一定要意识到该过程有很多要考虑的因素,包括要监控哪些元素,以及所需要的计算内存和数据存储。作为工业内存解决方案的领导厂商,美光提供广泛的嵌入式内存产品,包括基于 1-alpha 技术的 LPDDR4/x 和 LPDDR5/x 解决方案(可用于快速 AI 计算)、嵌入到 eMMC 中的 176 层 NAND 技术,以及支持 UFS 的存储解决方案。这些内存和存储技术正是美光满足你的计算需求的关键。
1. IDC FutureScape,2021 年
2. “机器学习中的参数个数”(Toward Data Science),2021 年