近年来,大模型应用从“能用”走向“好用”,从单点试验走向行业规模化部署,算力体系面临的新问题日益突出:一是训练与推理并重带来持续高负载,且推理侧需求呈现高并发、低时延、弹性伸缩等特征;二是模型结构快速演进,自主“代理型”系统、复杂推理与混合专家架构兴起,使计算任务更依赖动态路由、跨模型调用与频繁的参数与数据交换;三是数据中心能耗、互连瓶颈与系统复杂度叠加,传统“堆卡”方式在成本、效率与可管理性方面面临边际收益递减。
针对上述痛点,英伟达在CES 2026发布“Vera Rubin”平台,明确将其定位为面向下一代智能工作负载的系统级解决方案。
平台核心为“Vera Rubin”超芯片:在单一封装内集成一颗Vera中央处理器与两颗Rubin图形处理器,并作为更大“Rubin架构”中的关键组成部分,通过多芯片互联协同工作。
企业方面指出,训练与推理需求正以前所未有的速度增长,平台在计算、网络与存储等层面进行深度协同设计,意在提升整体吞吐与效率。
从原因看,此次平台化升级并非单纯硬件迭代,而是对工作负载变化与产业竞争的系统回应。
首先,MoE等架构将模型能力拆分为多个“专家”,通过路由选择调用不同子模型,降低单次推理成本的同时,对互连带宽、通信效率与调度能力提出更高要求。
其次,面向自主“代理型”系统的应用正在加速落地,其运行往往包含多轮推理、工具调用、记忆检索等链路,系统瓶颈不再局限于算力本身,网络、存储与基础设施开销对端到端体验影响显著。
再次,云服务商与大型企业正推动算力从“单机加速”走向“机架级、集群级”组织方式,行业需要更标准化、可扩展的“算力单元”,以便快速部署、运维与扩容。
在影响层面,“Vera Rubin”平台释放出三点信号:其一,智能算力竞争从芯片层扩展到系统层、生态层,互连、网络、软件栈与运维能力将成为综合门槛;其二,数据中心形态继续向机架级集成与集群化演进,算力采购从“单卡性能”向“单位机架产出、单位能耗产出、集群可用性”转变;其三,推理与训练的需求叠加将推动更细分的基础设施分工,网络卸载、数据处理卸载等能力成为提高利用率、降低时延的重要抓手。
为支撑机架级与集群级部署,英伟达同时推出多项配套基础设施组件,包括用于高速GPU互连的NVLink 6交换机、用于网络加速的ConnectX-9 SuperNIC、用于卸载基础设施任务的BlueField-4数据处理单元,以及面向大规模数据中心组网的Spectrum-6以太网交换机。
这些组件可组合成NVL72服务器系统,将72块GPU集成在单一机架级单元内;多个NVL72还可进一步组成更大规模的DGX SuperPOD集群,以满足更高等级的训练与推理需求。
整体上看,其路线强调“算力+互连+网络+卸载”的一体化,试图在规模扩展时保持性能线性增长,并降低系统管理复杂度。
对产业而言,平台发布或将加速两类趋势:一是大型云厂商、科研机构与头部企业加快算力基础设施升级,围绕推理服务质量与总体拥有成本展开新一轮投入;二是供应链与生态伙伴在机房电力、散热、网络架构、软件调度等环节协同升级,形成更标准化的部署与运维体系。
与此同时,行业也需关注高端算力集中带来的成本门槛、能耗压力与资源分配问题,推动在算法效率、模型压缩、算力调度与绿色数据中心建设等方面形成合力,以提升整体产业韧性与可持续性。
展望未来,随着复杂推理、多模型协同与行业智能体应用持续增长,算力平台将更加突出“端到端效率”与“规模化可控”。
一方面,硬件层面将继续走向多芯片协同与互连升级;另一方面,软件与系统层面的调度、资源隔离、可靠性与安全能力将成为评价平台竞争力的重要维度。
谁能在性能、成本、能耗与生态之间取得更优平衡,谁就更有可能在新一轮产业周期中占据主动。
Rubin平台的推出标志着AI计算进入新的发展阶段。
面对自主智能体、高级推理等新兴应用的挑战,业界正在进行系统性的架构升级和创新。
这一平台不仅是技术层面的进步,更反映了产业对未来AI应用方向的前瞻性把握。
随着该平台的落地应用,AI计算的效率和能力有望进一步提升,为更多创新应用奠定基础。