继谷歌、亚马逊相继推出自研算力芯片后,全球云计算"三巨头"之一的微软本周正式发布了其自主研发的新一代AI加速器Maia 200。
这款芯片的面世,进一步加剧了云计算产业在芯片自主研发领域的竞争态势,也反映出当前AI产业推理成本优化的紧迫需求。
从技术指标看,Maia 200展现出了显著的性能优势。
该芯片采用台积电最先进的3纳米工艺制造,集成超过1400亿个晶体管,内置原生FP8和FP4张量核心。
在低精度计算方面,单颗芯片在4位精度下可提供超过10 PetaFLOPS的算力,在8位精度下也能超过5 PetaFLOPS,整体热设计功耗控制在750瓦以内。
微软官方表示,这一性能指标在所有超大规模云服务商自研芯片中处于领先地位,其中FP4性能相比亚马逊第三代Trainium芯片提升超过三倍,在FP8性能上也超越了谷歌第七代TPU。
在存储和扩展能力方面,Maia 200同样配置充足。
芯片配备216GB、带宽达7TB/s的HBM3e高带宽内存,以及272MB的片上SRAM。
每块芯片提供2.8TB/s的双向专用扩展带宽,支持在6144个加速器集群中提供可预测的高性能集合操作。
这样的配置使得单块Maia 200能够轻松运行当今最大规模的AI模型,同时为未来更大型模型的部署预留了充足空间。
从经济效益角度,Maia 200也体现了云服务商对成本优化的执着追求。
微软披露,该芯片是公司迄今部署过的效率最高推理系统,其"每美元性能"相比现有机群中最新一代硬件提升了30%。
这一指标的改善,直接关系到云服务商的运营成本和市场竞争力。
Maia 200的推出背景值得关注。
随着生成式AI应用的快速发展,AI推理已成为云计算运营成本中日益重要的组成部分。
相比训练阶段的一次性投入,推理是一个持续的、高频次的计算过程,直接影响云服务商的长期运营效率。
因此,云计算巨头纷纷投入巨资开发自研芯片,目的是在推理环节提供比英伟达GPU更具成本效益的解决方案,从而在激烈的市场竞争中获得优势。
值得注意的是,微软在芯片设计上也进行了创新选择。
每台Maia 200服务器中包含4块芯片,采用以太网连接而非InfiniBand标准。
这一选择具有特殊意义,因为InfiniBand交换机正是英伟达在2020年收购Mellanox后的主要产品。
微软的这一设计决策,在某种程度上反映了云计算巨头在芯片生态中的独立性追求。
目前,微软正在为美国中部地区的数据中心配备Maia 200芯片,后续将在更多地点部署。
不过,Azure云服务用户何时能够使用搭载该芯片的服务器,微软暂未明确披露。
此外,微软已在设计Maia 200的后续产品Maia 300,并与OpenAI达成协议,可以使用该初创公司的芯片设计,这表明微软在芯片研发上的长期投入和战略布局。
Maia 200的亮相不仅是一次硬件更新,更折射出云计算产业从“采购驱动”向“自研驱动、系统取胜”的演进路径。
当推理成为规模化应用的“日常开销”,谁能以更高效、更稳定、更可持续的方式提供算力,谁就更可能在下一轮云端竞争中占据先机。
面向未来,产业需要在技术创新、生态兼容与成本治理之间取得平衡,让算力真正成为推动数字经济发展的长期动能。