华为Atlas 950 SuperPoD这次在MWC 2026现场,靠着8192张昇腾卡互联震惊了大家。华为用自家研发的灵衢技术,直接打破了物理上的限制。全光互联架构让带宽达到了1.6Tbps,延迟低到纳秒级。还有个大改变是统一内存池,把AI训练的老规矩都给改了。这次华为不搞封闭的生态,开放技术挑战英伟达,整个超算领域的规则都被重新写了。其实就是MWC 2026的时候,华为展台中央那个大家伙Atlas 950 SuperPoD吸引了所有人的目光。它能让8192张昇腾卡连成一片,总带宽甚至比全球互联网的峰值还大10倍。当英伟达还在说2027年才会出NVL576的时候,华为已经用灵衢技术给超节点定了新标杆。传统超节点最大的问题就是带宽不够用。和昇腾384比起来,Atlas 950的灵衢带宽提升了20倍。半导体专家说这多亏了全光架构,用光子传信号比电子快多了,单路带宽能有1.6Tbps。相比英伟达用铜缆做的NVLink,光通路损耗低还不会受电磁干扰的影响。在这种超高速、低延迟的网络里训练模型就像用一块芯片一样快。现场技术人员演示的时候发现,数据同步的延迟不到300纳秒,比InfiniBand网络快了整整3个数量级。这就解决了以前通信慢导致算力浪费的问题。 最让人惊讶的是灵衢协议能把内存统一编址。把8192张卡的内存变成一个超级内存池,让系统能支持PB级的原子操作。这样一来做梯度聚合或者参数更新就不需要复杂的搬运数据了。和英伟达的GPU分开内存不一样,这种设计让超节点真的像电脑一样思考。华为跟英伟达的路线完全不一样。英伟达那个CUDA生态是封闭的,而华为强调开源开放。他们不仅支持昇腾芯片,还能跟第三方加速器兼容。这就让Atlas 950 SuperPoD能灵活适应不同客户的需求。 NVLink只能绑在英伟达自家GPU上,这次MWC现场就把AI基础设施的市场格局给搅动了。华为把8192卡互联变成现实后,超算的规则就彻底变了。这套系统展示的不仅是速度和规模的突破,更是对分布式计算本质的重新思考——以后做AI训练就该是这样没有通信障碍的样子。