人工智能这波火起来以后,藏在背后的数据中心可就不是省油的灯了

人工智能这波火起来以后,藏在背后的数据中心可就不是省油的灯了。大家都在聊ChatGPT多厉害,可没人注意到它跑起来背后得消耗多少水。有学术报告算过账,大型的人工智能模型哪怕只做一个简单的对话任务,后台的数据中心冷却系统就能耗掉几十毫升甚至上百毫升的洁净水。虽然单看这点量不算大,但放眼全球每天几十亿次的AI交互,这累积起来的数字可就相当惊人了。举个例子,像ChatGPT这种大语言模型,只要处理几十个问题,间接耗掉的水大概就相当于一瓶瓶装水的量。 这水到底是怎么没的?主要是GPU这种图形处理器在高负荷运转时发热太厉害,服务器为了给这些芯片散热就得用冷却系统把热量带走。现在主流的风冷和液冷两种技术里面,水冷因为效率更高,在大型数据中心用得比较多。它的原理就是让水不停地流过服务器里的冷板或者直接接触发热的部件。 但问题来了,算力需求涨得太快了,服务器集群越来越大,这就逼着冷却系统的总用水量也跟着飙升。好在现在有了更高效的技术方案,比如浸没式液冷。不过这东西也有两难的地方:要是用油类介质当冷却液,成本虽然便宜却容易着火、老化,还可能影响信号传输;要是用性能更好的氟化液,又可能涉及PFAS这种持久性有机污染物,对环境和健康都有风险。再加上改造成本高、现有的基建改造难度大,这就限制了它大规模商用。 咱们国家在能源利用效率上卡得很死,给数据中心的PUE值定了个严格的上限。PUE值越接近1越好,说明电力更多地用来算了而不是用来散热了。这也从根源上逼着技术必须革新,把水耗降下来。 咱们再往远处看,人工智能的“水足迹”其实有很明显的地域性。虽然地球上的水总量不少,但分配得太不均匀了。很多数据中心为了图便宜的电价和土地成本,往往就选在那些本来就缺水的地方建。科技企业虽然也说要搞“水资源中和”,想通过投资异地项目来抵消自己的用水,但这真到了落地的时候就会发现很难直接缓解当地的用水紧张局面,尤其是跟农业灌溉、居民生活这些刚需去抢水时矛盾更大。 《自然》杂志早就发文警告过了,在全球很多地方干旱频发、供水设施老化的背景下,必须重视新技术带来的叠加压力。现在搞人工智能是大势所趋,谁也挡不住它的发展势头。但我们得明白一个道理:算力可以无限长,但资源不能无限消耗。正视数据中心的水资源问题是必须要走的一步。 以后该怎么办?得在技术、政策、规划和国际合作上一起使劲才行。一方面要攻关更环保高效的新冷却技术;另一方面还要把当地的水资源承载能力当成布局算力的重要因素来看待。只有把可持续发展的理念融入到人工智能的整个生命周期里去了,我们才能一边享受技术带来的红利一边守住咱们的生命之源。