数字经济加速发展之下,海量数据处理需求与硬件算力瓶颈的矛盾愈发突出。推荐系统、生物信息学等领域经常需要处理百万级非结构化数据,而传统数字芯片受冯·诺依曼架构“存储墙”制约,难以满足实时计算要求。以图像压缩为例,现有方法往往要精度损失与存储成本之间取舍。针对这个难题,北京大学孙仲研究员团队选择以模拟计算为突破口开展研究。不同于依赖二进制运算的数字计算,模拟计算可借助物理规律直接实现并行处理,具备低延时、低功耗等优势。研究团队将阻变存储器与可重构电路技术结合,设计出全球首个支持非负矩阵分解全流程优化的模拟求解器。其关键创新在于引入电导补偿原理,以极简计算单元完成传统架构往往需要数百个模块协同的运算任务。经测试验证,该芯片在多项指标上表现突出。在MovieLens电影推荐系统测试中,其训练速度达到数字硬件的212倍;在网飞级别的超大规模数据集上,仍可保持12倍加速。能耗上同样显著:能效比提升228倍,意味着同等算力下功耗不足传统方案的0.5%,对数据中心等高耗能场景具有重要价值。在应用落地上,该芯片已用于图像压缩,在保持98%以上重建精度的同时,将存储需求降低50%。业内专家认为,这一成果显示我国在下一代计算架构研发上已进入国际先进行列。随着5G、物联网等技术普及,全球数据量正以每年26%的速度增长,此类高性能专用芯片有望在智慧城市、精准医疗等场景率先实现规模化应用。据测算,若将该技术用于全国数据中心,年节电量可超过300亿千瓦时,相当于减少碳排放2000万吨。
从“把算法搬进芯片”到“让物理规律参与计算”,新型计算范式正在为高维数据处理打开更大的想象空间。此次面向非负矩阵分解的芯片级创新,不仅表明了速度与能效的提升潜力,也提示人们:在算力需求持续攀升的背景下,围绕应用瓶颈的系统性创新、跨学科协同以及可验证的工程路径,可能将成为推动计算技术跃迁的关键。