从“零耗水”到“隐形水账”:大模型一次回答究竟消耗多少水资源引关注

当用户在人工智能工具上提出一个问题时,看似无形的计算过程背后,正在消耗大量的水资源。

这一发现引发了学术界和产业界的广泛关注,也使水资源与人工智能发展的关系成为新的研究课题。

问题的复杂性在于测量标准的不一致。

以OpenAI首席执行官奥特曼公布的数据为例,其声称GPT回答一次问题的耗水量仅为0.3毫升。

但加州大学河滨分校的研究团队通过独立测算得出十几毫升的结论,而最新研究表明,在长提示词条件下,GPT-4.5、Deepseek R1等主流大模型每次回答可消耗100多毫升水。

这些数据虽然看似相互矛盾,但实际上各有其合理的测算基础。

数据中心为何需要大量用水?

这与人工智能运算的物理特性密切相关。

成千上万台服务器在数据中心内24小时不间断运行,单个机柜的功率从几十千瓦到数百千瓦不等。

如此庞大的计算能力必然产生巨大的热量。

传统的风冷散热方式效率不足,因此数据中心普遍采用水冷系统来带走热量。

这些冷却水在吸收热量后会部分蒸发,剩余部分虽然可以循环利用,但随着杂质积累,需要定期排放和更新,形成直接的水消耗。

然而,数据中心的直接用水仅是冰山一角。

更大的水消耗隐藏在电力生产环节。

无论是火力发电、气电还是核电,发电厂都需要大量水资源用于冷却和辅助生产。

以美国平均数据为参考,数据中心本身的耗水约为每度电0.55升,而发电厂的耗水约为每度电3.142升。

两者合计,每消耗一度电需要约4升水。

这意味着发电环节的隐形水消耗往往是数据中心直接用水的数倍。

基于这一计算逻辑,加州大学河滨分校的研究者估算出单次AI查询消耗4瓦时(0.004度)电力,由此推算出约16毫升的耗水量。

而根据OpenAI和谷歌公布的报告,平均每条请求的耗电量约为0.3瓦时,由此推导出约1毫升的耗水量可能更为合理。

不同结论的产生,主要源于对模型规模、提示词长度、电源结构等变量的不同假设。

值得注意的是,即使上述计算已相对全面,仍未完全涵盖人工智能的全生命周期水消耗。

芯片制造、服务器生产、基础设施建设等环节都涉及大量的间接用水。

这些"水足迹"虽然难以精确量化,但其累积效应不容忽视。

从宏观层面看,人工智能产业的快速发展与全球水资源紧张的矛盾日益突出。

许多地区已经面临水资源短缺问题,大型数据中心的建设往往引发当地水资源分配的争议。

部分科技企业已开始探索在水资源丰富地区建设数据中心,或采用海水冷却、废热回收等技术降低淡水消耗。

但这些措施的推广仍需时间和成本投入。

产业界和学术界正在推动更准确的测量标准和更高效的冷却技术。

制定统一的水消耗评估框架,将有助于企业进行更精准的环境影响评估,也便于监管部门制定相关政策。

同时,提高数据中心能效、优化算法、开发低功耗芯片等技术进步,都将直接降低人工智能应用的水资源消耗。

当科技创新与生态保护的平衡木越架越高,这场关于"比特与水滴"的博弈启示我们:任何技术进步都需置于地球承载力的标尺下丈量。

正如联合国环境规划署官员所言:"真正的智慧,不仅体现在算法精度上,更应彰显于对自然馈赠的敬畏之中。

"