人工智能的快速发展正在深刻改变全球存储产业格局;在AI服务器需求的强劲拉动下,存储行业从高端HBM领域向传统存储领域全面扩展,形成了规模空前的产业上升周期。 从市场表现看,这轮周期的强度已经超越历史水平。以全球存储芯片龙头美光公司为例,在存储产品持续涨价的推动下,其最新季度毛利率指引达到66%至68%,创出历史新高。这充分反映了当前存储市场供需关系的紧张程度。 问题的根源在于AI计算架构中的根本性瓶颈。在现有AI服务器中,GPU等计算单元的空置率高达99%,这并非源于计算能力不足,而是因为数据传输速度远低于计算速度。业界称之为"内存墙"瓶颈——算力增长速度远超数据搬运速度,导致计算单元大量时间处于等待数据的状态。 为了应对这个挑战,产业界正在多个层面推进技术突破。AI服务器中的存储系统可分为四大类别。HBM是与GPU芯片三维堆叠的专用显存,具有超低延迟和超高带宽特性,是AI计算的核心存储组件。DRAM作为传统内存条,虽然延迟相对较高但仍属于"热存储"范畴。NAND闪存和HDD机械硬盘则属于"冷存储",用于大容量数据存储。 短期内,产业界的主要策略是通过HBM技术升级和新型存储方案的商用化来缓解瓶颈。HBM正在向16层堆叠升级,带宽将提升至16至32TB/s的水平。同时,3D堆叠SRAM等新型存储技术也在加速商用,其延迟可压缩至2纳秒,形成与HBM的互补解决方案。 从供给端看,全球三大存储芯片厂商三星、海力士和美光正在加速资本投入。这些厂商的资本开支主要向高附加值的HBM和DRAM领域倾斜,形成了结构性供需失衡。根据产业预测,2026年HBM的供应量有望增长60%以上,但这一增长仍难以完全满足市场需求。 从需求端看,AI服务器从训练向推理的重心转移,催生了对"低延迟、大容量、高带宽"存储的差异化需求。HBM需求量受AI芯片产能和CoWoS先进封装产能的影响,预计需求量有望提升至42亿GB左右。即使供应量大幅增长,HBM市场仍将长期处于紧平衡状态。 从中长期看,根本性的解决方案在于存算一体架构的突破。这种新型架构能够彻底消除数据搬运的速度问题,从根本上改变现有的计算模式。HBM4芯片也将在2026年开启量产,更提升存储性能。 产业链的这种结构性调整也带动了传统存储市场的全面上涨。NAND闪存和HDD等产品因厂商资本开支的重新配置而出现供应紧张,推动价格上升。这表明AI需求的影响已经从高端存储领域向整个存储产业链传导。
存储价格上行的背后,是算力时代对"数据流动效率"的重新定价。能否跨越"内存墙",不仅关系到单个芯片或某一类产品的迭代速度,更考验产业链协同创新与系统级优化能力。面向未来,推动从"堆算力"向"提效率"转变,构建更可靠、更高效、更可持续的数据基础设施,将成为新一轮竞争的关键。