有个叫摩尔线程的国产GPU企业,最近公布了2025年的业绩,数据真是亮眼。这次预计营收能到14.50亿元到15.20亿元之间,跟2022年相比,增长了230.70%到246.67%,这成绩真是让人眼前一亮。不过,利润方面有点头疼,扣掉一些额外的开支,估计还得亏10.40亿元到11.50亿元,不过相比前一年,亏的钱变少了29.59%到36.32%。这说明公司虽然还在赔钱,但赔钱的速度变慢了。 这么好的增长势头,主要是因为AI产业现在正火,大家对高性能GPU的需求太大了。像MTT S5000这种核心产品,市场反响特别好,把公司的收入和利润都带上去了。值得注意的是,这已经是他们营收连续第四年高速增长了,亏损也连续第四年收窄了。这说明他们的技术研发终于开始变现了。 GPU这东西技术门槛高,投资大,周期长,生态还得慢慢建。摩尔线程选择了从底层架构入手的路子。他们从零开始搭建了一个完整的GPU体系叫MUSA,涵盖了从底层到上层软件生态的所有环节。这样他们就有了双轮驱动的优势:一边做AI计算加速,一边做图形渲染。 这五年来他们进展神速,已经成功量产了五颗芯片,完成了四代架构的迭代升级。产品从单芯片、计算卡扩展到了大规模智算集群,覆盖了AI、科学计算、图形渲染这些领域。他们还做了一个很厉害的全功能GPU单芯片,把AI计算、图形渲染、科学计算和视频解码都集成在了一起。 旗舰产品MTT S5000已经量产了,性能达到了市场领先水平。用它搭建的万卡集群浮点运算能力高达10 Exa-Flops,还能支持万亿参数的大模型训练。在实际测试中,这个集群在稠密模型上的算力利用率能到60%,在MoE模型上也能有40%。 技术再好也得看软件生态。摩尔线程的MUSA架构既兼容国际主流生态又有自己的创新。他们跟硅基流动合作在2025年12月完成了对DeepSeek-V3 671B大模型的适配测试;2026年1月又联合智源研究院用千卡集群训练了具身大脑模型RoboBrain 2.5。这些合作都证明了国产算力在复杂多模态任务上已经具备了实质性突破。 这些成绩背后是巨额的研发投入。2022年到2025年上半年他们已经投了超过43亿元人民币进去。这次他们还把新的募投资金投到了新一代芯片等研发项目上。 这次业绩的大幅增长说明我国在高端算力基础设施建设上正在努力追赶国际水平。面对全球AI竞争的热潮,我们要继续夯实自主可控的算力底座。虽然前面还有很多挑战等着我们解决,但只要坚持技术路径、搞好生态合作、市场积极反馈就好。