中宏网讯 在数字计算主导计算机领域半个多世纪后,我国科学家在新架构上取得重大突破。今年10月,由北京大学人工智能研究院孙仲团队主导,并联合集成电路学院研究团队,成功研制出基于阻变存储器的高精度、可扩展模拟矩阵计算芯片。这项突破性技术首次将模拟计算的精度提升至24位定点精度,其计算吞吐量与能效远超现有顶级GPU,幅度可达百倍至千倍。
当前的市面上的主流CPU和GPU都是数字芯片,并都采用冯诺依曼结构,将计算和存储功能分开,通过01数字流的编译+计算+解码实现信息计算和传输。而基于阻变存储器的模拟计算的优势之一在于取消了“将数据转化为二进制数字流”这一过程,同时不必进行“过程性数据存储”,进而将数据计算过程与数据存储合而为一,实现算力解放。孙仲团队专注于更具挑战性的矩阵方程求解(AI二阶训练的核心)。矩阵求逆操作要求的计算精度极高,时间复杂度达到了立方级。而模拟计算凭借物理规律直接运算的方式,具有低功耗、低延迟、高能效、高并行的天然优势,只要能够不断降低计算误差,不断提升计算精度,将为传统GPU的算力解放带来爆炸性突破。
“这项工作的最大价值在于,它用事实证明,模拟计算能以极高效率和精度解决现代科学和工程中的核心计算问题。可以说,我们为算力提升探索出一条极具潜力的路径,有望打破数字计算的长期垄断,开启一个算力无处不在且绿色高效的新时代。”孙仲透露,“目前,团队正在积极推进产业落地,而此过程的关键在于阻变存储器。当前在很多代工厂有突破,但是更多依然是将之用于存储器本身。但是,我们不只将它用于存储,也用于计算,是对其应用能力的一种拓展,这要求更有针对性的生产工艺探索。但是实现产业化还需要多方的协调与努力,在持有积极乐观心态的前提下,依然需要稳扎稳打、步步推进。”
中宏网版权申明:凡注有“中宏网”或电头为“中宏网”的稿件,均为中宏网独家版权所有,未经许可不得转载或镜像;授权转载必须注明来源为“中宏网”,并保留“中宏网”的电头。