AI技术背后消耗了多少水资源?这问题最近在美国引起了大家的关注。加州大学河滨分校的研究者就估计过,普通人点一次人工智能查询大概要耗水16毫升。而像OpenAI这种大公司有时候说的单次查询只有0.3毫升耗水量,其实指的是比较简单的任务情况。现实生活中,处理复杂任务时耗水量可能会超过100毫升。 大家看到这些数据悬殊,主要是因为评估标准不一样。有的研究只算数据中心自己用的水,有的还把发电端也算了进去。比如,电力生产过程中为了冷却或者蒸汽循环,也会消耗大量的水。学术研究就指出,发电环节的间接用水可能好几倍于数据中心直接用的水。 要全面评估AI的“水足迹”,就得看整个生命周期。数据中心作为数字时代的心脏,里面有好几万台服务器一直在工作,产生很多热量。为了让设备稳定运行,必须要有高效的冷却系统。虽然风冷技术用得比较多,但高密度的集群通常还是用液冷,特别是水冷方案。冷却水在带走热量的过程中,一部分因为蒸发损耗掉了,另一部分循环使用后因为水质问题还要当废水处理掉。 加州大学河滨分校的计算表明,一次标准AI查询大约要耗电4瓦时。结合发电和数据中心的用水系数来看,对应大约16毫升的耗水量。随着模型规模变大、任务复杂度提升,算力需求增长非常快。有些先进的大模型在处理复杂任务时单次响应耗水量能达到上百毫升。 企业公布的数据则呈现出另一种情况。比如OpenAI CEO提到的0.3毫升耗水量,其实是特定轻量化模型在理想简单任务下的表现。这个数据虽然在技术定义上是对的,但没法代表实际应用中的平均水平。综合多家头部企业的报告来看,一次典型AI请求的平均耗电量大约是0.3瓦时左右。按照这个计算,全周期的耗水量大概在1毫升量级。 别看这“平均数字”看起来很小,但全球每天有数以百亿计的交互请求。这些累积起来的效应是不容忽视的。造成这种差异的原因主要是评估标准和方法不统一。现在还缺乏针对人工智能碳足迹和水足迹的强制性规范。不同的研究选取的系统边界不一样(比如有没有算发电端),模型状态也不一样(训练和推理阶段不同),任务类型和基础设施能效水平也不同。这就导致不同结果之间可比性有限。 技术发展快是好事儿,可资源环境成本也得引起重视。从“耗水量”这个具体问题能看出来,推动数字基础设施绿色化是必然要求。未来需要建立统一的评估标准体系来鼓励企业研发更高效的冷却技术和优化算法能效。 只有在技术创新和资源约束之间找到平衡,智能浪潮才能奔涌在绿色发展的基础上。这样才能真正赋能经济社会实现高质量和可持续的未来。