英伟达把vera rubin的ai 平台推了出来

2026年GTC大会上,英伟达终于把自家那个叫Vera Rubin的AI平台推了出来。黄仁勋直接说这是“代际飞跃”,公司还准备搞史上最大的AI基建项目,把从训练到推理的全套环节全包圆。这个平台的核心就是新一代NVL72机架,它把72块Rubin GPU和36块Vera CPU用NVLink6技术深度绑在了一起,计算效率是真的猛。跟老款Blackwell比起来,训练混合专家模型的时候只需要四分之一的GPU资源,每瓦的吞吐量更是猛涨10倍,单Token的处理成本直接降到了十分之一。 有了这个东西,AI开发者们就能用更少的钱办更多的事了。至于怎么验证那些模型好不好用?英伟达还专门弄了个专用的Vera CPU机架,里面塞了256块液冷CPU。散热做得特别好,运行效率能比传统CPU高两倍,数据处理速度也快了50%。这样一来就能帮着大规模模型好好测试和优化,保证落地的时候别出岔子。 为了伺候好智能体系统那点儿低延迟和长上下文的活儿,英伟达还顺便推出了Groq3LPX推理加速机架。这套系统配上256个LPU处理器跟Vera Rubin配合时,每兆瓦的推理吞吐量最高能翻35倍。这对于智能客服、虚拟助手这类需要实时互动的场景来说简直是个大杀器。 数据存储这块也没落下。英伟达新搞的BlueField-4STX机架搭建了一个AI原生的存储架构。基于DOCAMemos框架,它能特别麻利地把那些大模型生成的海量KV缓存数据给搞定。能耗没涨多少,推理吞吐量反倒能最高提升5倍。 总而言之,Vera Rubin这次真的把AI推理成本给降下来了,算力效率也创了新高。这次搞的动静这么大,肯定能帮各行各业用好AI技术。未来咱们不妨期待一下,它到底能把这条路带到哪儿去。