长期以来,偏微分方程作为描述流体力学、电磁场等物理现象的核心数学工具,其求解过程依赖超级计算机的庞大算力支撑,存在能耗高、资源消耗大的瓶颈。
传统有限元分析方法需将物体离散为海量单元进行矩阵运算,计算复杂度呈指数级增长。
研究团队从人脑高效处理复杂任务的生物学机制中获得启发。
人脑在完成动作控制等任务时,能以极低能耗实现传统计算机需百亿亿次运算才能完成的计算。
基于此,科学家创造性提出Neurofem算法,将有限元网格节点映射至神经形态芯片的模拟神经元网络,通过神经网络权重参数模拟物理相互作用,将线性方程组求解转化为寻找系统平衡状态的优化问题。
在32块英特尔Loihi 2芯片的实测中,该方案展现出显著优势:能耗较传统方法降低80%,计算结果误差仅0.1%-0.3%。
这种"硬件-算法协同创新"模式,标志着类脑计算从图像识别向科学计算领域的重大跨越。
当前技术仍存在运算速度滞后、仅适用于稀疏矩阵等局限。
但随着英特尔Hala Point系统等新一代神经形态硬件的发展,其千亿级神经元规模有望突破现有算力天花板。
业内分析指出,该技术特别适合航空航天、气候模拟等对能效敏感的长期计算任务,或将重塑高性能计算产业格局。
从“看懂图像、识别模式”到“求解方程、逼近物理”,神经拟态计算的边界正在被重新定义。
Neurofem的意义不只在于一次能效数字的刷新,更在于提示人们:面向未来的算力竞争,既是速度与规模之争,也是能源与架构之争。
如何在确保可靠性与可验证性的前提下,把更节能的计算方式纳入科学研究与产业工程的主流工具箱,或将成为下一阶段科技创新与算力治理需要共同回答的问题。