本文作者:访客

我国成功研发新型高精度模拟计算芯片,突破技术瓶颈,引领计算科技新时代

访客 2025-10-26 11:32:49 4076
我国成功突破技术瓶颈,研制出新型芯片,高精度模拟计算系统问世,这一重要科技成果将极大提升我国芯片产业的技术水平和国际竞争力,该芯片具备出色的性能和超高的能效比,有望为人工智能、云计算等领域带来革命性的进步,此次研发成功标志着我国在高科技领域迈出了重要一步,对于推动国家科技进步、促进产业发展具有重要意义。

近日,北京大学人工智能研究院孙仲研究员团队与集成电路学院研究团队合作,成功开发出一种基于阻变存储器的高精度、可扩展模拟矩阵计算芯片。这一成果首次实现了在精度上能够与数字计算相媲美的模拟计算系统。该芯片在处理大规模MIMO信号检测等关键科学问题时,其计算吞吐量和能效比当前顶级数字处理器(如GPU)提升了百倍至千倍。相关研究成果于10月13日发表在《自然·电子学》期刊上。

对于习惯了数字计算机(即二进制0和1)的公众来说,“模拟计算”可能是一个既古老又新奇的概念。孙仲用生动的比喻解释了这一点:现代所有芯片都是基于数字计算,数据需要先转换成0和1的符号串。例如,数字“十”在二进制中表示为“1010”。而模拟计算则不需要这层转译,它可以直接使用连续的物理量(如电压、电流)来类比数学上的数字。比如,数学上的“十”可以直接用十伏或十毫伏的电压来表示。

模拟计算机曾在上世纪30到60年代被广泛应用,但随着计算任务日益复杂,其精度瓶颈逐渐显现,最终被数字计算取代。此次研究的核心正是要解决模拟计算“算不准”的问题。目前市面上主流的CPU和GPU都是数字芯片,并采用冯诺依曼结构,将计算和存储功能分开,通过01数字流的编译、计算和解码实现信息处理。基于阻变存储器的模拟计算可以取消“将数据转化为二进制数字流”的过程,同时不必进行“过程性数据存储”,从而将数据计算与存储合二为一,释放更多算力。

与其他“存算一体”方案相比,孙仲团队专注于更具挑战性的矩阵方程求解(AI二阶训练的核心)。矩阵求逆操作要求极高的计算精度,时间复杂度达到立方级。模拟计算凭借物理规律直接运算的方式,具有低功耗、低延迟、高能效和高并行的优势。只要能够不断降低计算误差并提升计算精度,模拟计算将为传统GPU的算力解放带来巨大突破。

在实验中,团队成功实现了16×16矩阵的24比特定点数精度求逆,矩阵方程求解经过10次迭代后,相对误差可低至10⁻⁷量级。在计算性能方面,当求解32×32矩阵求逆问题时,其算力已超过高端GPU的单核性能;当问题规模扩大至128×128时,计算吞吐量更是达到顶级数字处理器的1000倍以上。这意味着传统GPU需要一天完成的任务,这款芯片只需一分钟就能搞定。

关于应用前景,孙仲认为模拟计算在未来AI领域将扮演重要补充角色,尤其是在机器人和人工智能模型训练等计算智能领域。谈及与现有计算架构的关系,孙仲强调未来将是互补共存的局面:CPU作为通用“总指挥”因其成熟与经济性难以被淘汰,GPU则专注于加速矩阵乘法计算,而他们的模拟计算芯片旨在更高效地处理AI等领域最耗能的矩阵逆运算,是对现有算力体系的重要补充。

阅读
分享