随着大型人工智能模型对海量数据的依赖日益加深,传统计算机架构中内存与处理能力分离所导致的**“内存墙”**瓶颈正消耗巨大的时间和能源。普渡大学和佐治亚理工学院的研究人员在《科学前沿》杂志上发表了一项新研究,提出了一种利用类脑算法构建新型计算机架构的方法,以期大幅降低人工智能模型的能耗。
冯·诺依曼架构的瓶颈:内存墙
当前大多数计算机仍基于1945年提出的冯·诺依曼架构,该架构将内存和处理能力分置,导致数据在两者之间快速流动时形成性能瓶颈。普渡大学计算机工程教授、研究主要作者考希克·罗伊指出,过去四年里,语言处理模型的规模增长了 5000倍,使得这种效率问题变得至关重要,并呼吁从根本上重新思考计算机的设计方式。计算机工程师将内存容量难以跟上处理速度的这一问题称为**“内存墙”**,它消耗了运行底层人工智能模型所需的大量时间和能源。
解决方案:受人脑启发的“内存计算”
该论文的研究人员认为,解决内存瓶颈的关键在于尝试一种将内存和处理能力整合在一起的新型计算机架构,这种方法被称为**“内存计算”(Compute-in-Memory, CIM)**。
● 算法核心:研究人员建议,AI 模型应采用受人脑运作方式启发的脉冲神经网络(Spiking Neural Networks, SNN)。虽然 SNN 过去因速度慢、精度低而受诟病,但近年来其性能已显著提升。
● CIM 优势:论文摘要指出,“CIM 通过将计算能力直接集成到内存系统中,为解决内存墙问题提供了一个很有前景的解决方案。”通过这种整合,可以减少数据传输量并提高处理效率。
应用前景:从数据中心走向现实世界
研究人员相信,将计算机处理和内存集成到一个系统中,将能大幅降低人工智能的能耗。普渡大学合著者兼研究员坦维·夏尔马表示:“要将(人工智能)从数据中心转移到现实世界,我们需要大幅降低其能源消耗。”
通过这种方法,人工智能可以集成到体积小、价格实惠且电池续航时间更长的设备中,从而改进医疗设备、交通运输和无人机等多个领域。
via AI新闻资讯 (author: AI Base)