2024年全球人工智能服务器出货量能涨28.3%

给大家讲个事儿,全球人工智能服务器这块市场正在大发展,这次增长速度还特别猛。这背后其实是各家公司在自个儿弄芯片,这事儿把整个产业格局都给带变了。现在大家都在搞数字化转型,对算力的需求特别大,TrendForce这机构刚出了份报告,说2024年全球人工智能服务器出货量能涨28.3%,而整体服务器市场也能保持12.8%的增长。这个势头延续到2025年,增速还会更猛,说明大伙儿对算力资源的需求真的很旺盛。 咱们再细看产业的特点,现在热的地方正从以前的模型开发转向现在的场景应用。这就好比以前是练内功,现在是开始实战了。这种转变让专门做AI的服务器需求起来了,同时也给通用服务器带来了新动力。毕竟有些场景对算力要求不是特别高,就直接用通用服务器算了,这就形成了一种专用和通用共同发展的新局。分析师说这叫“双轮驱动”,说明AI技术真的要大规模落地了。一边是医疗影像、智能客服这些推理场景火起来了;另一边是传统行业数字化转型加快了步子。 还有个有意思的事儿是,那些科技大佬现在正烧钱搞研发呢。TrendForce统计了谷歌、AWS、Meta、微软、Oracle这五家大公司的投资数据,说2024年的资本支出总额估计能比去年多40%。更关键的是,他们把钱都投到了ASIC这种自研芯片上。这个决定直接改变了AI服务器的技术构成。报告预计到时候ASIC方案的出货量能占到27.8%,而以前那种GPU为主的解决方案市场份额可能会掉落到70%以下。 为什么这么大的企业都要搞自研芯片呢?其实挺复杂的。一方面是为了能更好地匹配自家的工作负载和算法需求;另一方面是为了构建完整的技术栈;再加上现在国际局势不好看,大家都想让核心技术掌握在自己手里。从技术发展的路子看,ASIC现在主要是用来优化推理场景的。 跟训练阶段比起来,推理更看重响应速度和能耗成本。定制化芯片能针对特定算法做优化,在自然语言处理和计算机视觉这些任务里表现很好。这正好符合大规模落地的需求。不过话说回来,GPU虽然现在被挤了一挤,但它毕竟有成熟的生态体系和强大的通用计算能力,在复杂的训练和推理场景里还得靠它撑场面。未来一段时间里GPU和ASIC可能会互补着用。 这次市场的快速增长不光是数字经济发展的结果,也反映了全球科技竞争格局的变化。随着技术突破和应用场景拓展越来越多,AI基础设施肯定会越来越专业、多样化。这事儿能让AI在各行各业用得更深更透,也给半导体产业和算力市场带来了新机会和挑战。在技术创新和市场需求的双重推动下,未来的算力生态肯定会更繁荣。