内存模拟计算降低人工智能能耗

发布于 2026年02月28日 | 从西班牙语翻译
Ilustración conceptual de un chip de computación analógica en memoria, mostrando un flujo de datos integrado en una matriz de celdas de memoria, con iconos que representan baja energía y alta eficiencia.

内存模拟计算降低 AI 能耗

内存模拟计算(AiMC)架构重新定义了系统执行人工智能任务的方式。它不再在内存和中央处理器之间不断移动数据,这些专用电路直接在内存中进行计算。这一转变解决了现代芯片的主要效率问题:传输信息的巨大能耗。🚀

AiMC 的基本原理

这项技术的技术基础使用非易失性存储单元,如 ReRAMPCM,以模拟方式执行数学运算。神经网络的权重被编程为矩阵中的电导水平。通过施加输入电压,欧姆定律和基尔霍夫定律自然地执行大规模的乘法和累加。这种并行过程避免了对每个数据的数字化和移动,从而节省了大量能量和时间。

内存处理的关键优势:
  • 极致效率: 系统可以用传统冯·诺伊曼架构功率的一小部分运行。
  • 大规模并行: 用于 AI 推理的基本向量运算在整个内存阵列中同时发生。
  • 降低延迟: 通过消除数据传输,显著加速了获得结果的时间。
讽刺的是,要构建更复杂的 AI,关键解决方案是回归电子电路的基本模拟原理。

大规模实施 AiMC 的挑战

将这项技术推向商业产品并非没有障碍。模拟精度 天生低于数字精度。诸如制造存储单元时的变异性或其值随时间漂移等因素可能会影响计算的准确性。研究人员正在开发补偿技术和新型电路设计来缓解这些影响。此外,软件生态系统必须适应以在这些专用加速器上编译和部署模型。

当前开发领域:
  • 补偿变异性: 创建算法和电路来校正存储单元的不精确性。
  • 适应软件: 需要开发工具,让程序员无需了解底层细节即可使用这些硬件。
  • 系统集成: 目标是将 AiMC 核心与传统数字处理器集成到一个芯片中。

未来与实际应用

尽管存在挑战,内存模拟计算 的进展是持续的。几家公司已经展示了功能性原型。这项技术对于在边缘实施 AI 模型 至关重要,即直接在资源有限的设备上,如传感器、手机或可穿戴设备,在这些设备中能效是决定性因素。其演进有望革命化我们执行人工智能的方式和地点。🔋