话说在AI推理大干快上的商业化大战中,一个决定未来的关键战场已经摆开架势。 想要高效又便宜地接住海量请求,这才是AI赚钱的硬道理。 传统存储的带宽卡脖子、价格贵上天,大家都在发愁。 专为AI推理准备的HBF高带宽闪存就像个救星一样跳出来,靠着大容量、高带宽、低成本的本事,把“内存墙”给破解了,成了HBM和SSD之间的新主力。 咱们爱集微VIP频道刚上线了元富投顾做的报告《HBF在AI推理市场扮演的角色》,把这个行业里供需的大变动,还有HBF的技术秘密都给扒了个透。 欢迎大家赶紧去订阅看看,里面有很多干货。 这次的报告主要说了两件大事:一是现在的服务器太烧钱,价格涨得飞起;二是HBF这种新技术怎么给AI推理解围。 先说产业供需的大环境,2026年全球存储圈肯定还是紧俏货,供给跟不上需求。 做DRAM的工厂被HBM挤占了产能(因为HBM用的晶圆是DDR5的两三倍),供给增长估计也就19%;做NAND的厂家因为减产和投钱保守,增长也就20%。 需求端主要是看服务器脸色,2026年它得占DRAM市场需求的66%,占NAND的38%。 那几家大云服务提供商更是要搞大动作,资本开支估计能涨40%。 供需失衡直接把价格推高了:2025年下半年开始,DRAM主流规格的现货价涨得最猛的达600%,NAND也涨了超500%;就连合约价也很猛,2025年四季度DRAM涨了45到50%,NAND涨了33到38%,2026年一季度估计还得接着涨。 具体算算看,2026年DRAM供给预计19%,需求却要涨27%,缺口就是-9.7%;NAND预计供给20%,需求也是20%,缺口-6.9%。 再来说说HBF这东西,它在HBM和固态硬盘中间占了个位置,大家管它叫“NAND版HBM”,就是专门为了解决AI推理的“内存墙”问题而生的。 跟HBM比起来,它有三个不一样的好处: 第一是容量大得多,单颗芯片能装512GB,目标甚至能冲到4TB,这比HBM的64GB大多了,能把整个AI模型都存进去。 第二是价格便宜得多,单位成本只有HBM的八分之一到十六分之一,能大大降低AI系统的整体成本。 第三是速度也够用。虽说存取延迟有点慢(微秒级),不如HBM快(纳秒级),但SanDisk的测试显示,在跑Llama 3.1这种405亿参数的模型时,只要不看容量的影响,HBF和HBM的带宽性能差不到哪去,也就2.2%,用来搞推理完全没问题。 报告里还用了个特别形象的比喻来说明它们在AI系统里的位置:GPU就像个顶尖学者;HBM就像书桌上的书架(虽然快但容量有限);HBF就像私人图书馆(容量大但拿书慢一点);SSD或硬盘就像公共图书馆(虽然远但容量最大)。 这样的分层存储架构能帮AI系统在花钱多少和干活快慢之间找到最佳平衡点。 报告特意强调了一点:HBF不是要把HBM赶走,而是要跟它搭伙干活。 HBM负责高速处理数据(比如训练的时候),HBF负责存大规模的数据(比如推论的时候)。 大家一起凑起来才是一个高效又便宜的AI存储体系。 现在SanDisk和Hynix在这技术上冲得最猛,预计2026年下半年能拿出样品来,到2027年就能量产了。 如果你也想了解这些最新的情报,赶紧注册个爱集微VIP账号吧。 VIP频道给你准备了超过2万份的深度报告,每周还更新几百篇最新分析。 这里坚持信息普惠的原则,会员一次付钱就能看全平台内容。 现在还有限时活动哦:首月体验只要9.9元;月卡19.9元;季卡54.9元;年卡199元是长期订阅最划算的选择。 注册后直接搜索“HBF在AI推理市场扮演的角色”就能进库看完整版报告了。 快来把这些关于AI推理时代存储革命的逻辑和投资机会装进脑子里吧!