
内存中模拟计算在数据存储位置处理数据
一种新的计算机架构范式正在兴起,以克服硬件中最顽固的限制之一:内存墙。这种技术直接在非易失性存储芯片的单元中执行计算,如 ReRAM 或 Flash,而不是不断在中央处理器和 RAM 模块之间移动数据。这种根本性变革有望彻底改变设备处理数据密集型任务的方式。🚀
在内存阵列内部操作
核心原理是避免移动大量信息所造成的瓶颈。通过在数据存储位置处理数据,消除了传输的昂贵延迟和能耗。主要操作,即矩阵向量乘法,以模拟方式利用内存单元的物理阵列进行。这极大地加速了特定任务,并将能耗降低几个数量级。
如何利用物理特性:- 利用每个内存单元的电导来表示一个数值权重,类似于神经网络中的突触。
- 向阵列的行施加输入电压,欧姆定律和基尔霍夫定律自然地通过列中的结果电流执行乘法和求和。
- 这种机制并行计算完整的点积,这是神经网络推理的基本操作,而无需通用数字电路。
内存计算并非旨在取代 CPU,而是为数据移动是主要敌人的特定工作负载提供极致效率。
理想领域:设备端 AI 推理
这项技术不与数字处理器竞争通用任务。它的优势体现在直接在资源有限的设备上执行已训练的人工智能模型。传感器、智能手机和可穿戴设备可以集成强大的 AI 能力,而不会迅速耗尽电池。
边缘 AI 的关键优势:- 最小化数据移动,这是冯·诺伊曼传统架构中最耗能的过程。
- 利用内存阵列结构固有的大规模并行计算。
- 实现远超的能效,允许电池供电设备运行 AI 更长时间。
编程思维的转变
采用这种范式要求改变思维方式。为内存模拟计算编程意味着以电导、电流和电压来推理,而不是数字逻辑的可预测的零和一。有些开发者可能怀念数字的绝对确定性,但特定应用的效率飞跃开辟了新的可能性。高效率处理未来的关键可能就在数据驻留的同一个地方。💡