2026年3月26日,中关村论坛上,中科曙光正式给业界交出了一份“如何让算力变得更易用”的答卷。在这一场强调科技创新与产业融合的盛会上,人们清楚地看到了AI大模型正从实验室走向实际应用,曾经被视为“天堑”的超高算力如今已从少数企业的战略资源,逐渐演变成了各个组织都能拥有的基础配置。 要解决这一问题,中科曙光发布的世界首个无线缆箱式超节点scaleX40就显得尤为关键。这是一款能把超节点从“少数人的能力”变成“多数人的标配”的产品。它通过大胆的结构创新,彻底改变了传统超节点依赖大量线缆连接的局面。李斌表示,这种无线缆架构把计算和交换节点直接对插在一起,既节省了光纤和铜缆的使用,还采用了标准的19英寸箱式设计。这就相当于把算力单元变成了独立的设备,让部署过程从复杂的工程实施转向了模块化的组装。 更重要的是,这款产品在关键指标上也足够硬核。它在单节点上集成了40张GPU,总算力超过28PFLOPS(FP8精度),HBM显存容量超过5TB,访存带宽更是超过8TB/s。系统的可靠性还被提升到了99.99%,在降低使用难度的同时保证了稳定性和能效表现。这就意味着大家在享受强劲算力的同时,也不用担心设备会因为复杂的维护而“趴窝”。 从市场需求来看,现在大家对AI算力的要求正在发生变化。根据行业预测,全球AI基础设施的投入还在持续增长,但需求不再单纯追求规模上限了,而是更加看重性能、成本和灵活性之间的平衡。业内普遍认为,对于大多数企业来说,几十卡规模的算力就足够用来训练模型和进行推理测试了。 所以scaleX40的出现正好切中了这个平衡点。它不仅能满足大模型训练和推理的需求,也不会让企业背上沉重的经济负担。向下兼容32卡的能力也让它能照顾到中小规模的应用场景;向上扩展则能组成更大规模的集群。这种“可小可大”的灵活性让企业可以根据业务节奏来逐步投入资金,而不是非要一次性砸下重金去买一个大集群。 随着AI进入产业化阶段,高端算力的竞争逻辑也发生了改变。以前大家比的是谁的性能更强现在大家更关心的是系统好不好部署、好不好用、能不能长时间稳定运行。scaleX40的设计思路就是要强调“可用性”,它的标准化结构可以直接插进现有数据中心里不用大动干戈;模块化的架构支持灵活扩展;同时还能和存储系统协同工作让算力资源更直接地服务于模型训练和智能体应用。 这种“开箱即用”的能力极大地缩短了从部署到上线的时间周期也降低了使用的复杂度。高端算力开始具备了“随取随用”的特征这对那些急需算力的企业用户来说意义重大。过去那种需要投入大量资源才能获得的稀缺配置现在正在变成大家可以常规部署的基础设施。 专家们普遍认为在中关村这个强调技术落地的平台上发布scaleX40是一次非常有参考价值的尝试通过结构创新和产品化设计它推动了高端算力从复杂工程体系走向了标准化基础设施。 当超节点开始以更简单的方式被使用的时候高端算力才会真正加速从“能力选项”转变为“体系标配”而这或许就是中国AI真正走向规模化应用的起点。