ChatGPT 消耗多少加仑的水?

CometAPI
AnnaOct 14, 2025
ChatGPT 消耗多少加仑的水?

OpenAI 的 CEO Sam Altman 公开表示,平均 每次 ChatGPT 查询会使用约 ≈0.000085 加仑的水(约 0.32 毫升,大致相当于茶匙的十五分之一)以及 ≈0.34 瓦时的电力。这个“每次查询”的数值在规模化相乘后会变得有意义,但仍远小于此前许多耸人听闻的标题所声称的——前提是你认可 Altman 关于每次查询能耗以及为 ChatGPT 提供服务的数据中心用水效率的假设。采用不同假设(尤其是不同的水资源使用效率,WUE)进行的独立分析会得出高出或低出数倍的结果。

单次 ChatGPT 查询到底用多少水?

OpenAI(及其 CEO)怎么说

在公开场合,OpenAI 的 CEO 和发言人提供了一个非常小的每次查询用水数值:大约 每次 0.32 毫升,折合约 0.000085 加仑(≈8.45×10⁻⁵ gal)。这大约是每次查询消耗茶匙的十五分之一的水量,也是公司在试图展示单次交互边际影响较小时最常引用的数字。

为什么独立估算会不同

独立研究者和非政府组织采用不同方法:先估算每次查询消耗的电能,再乘以“水强度”(每单位电量所用水)得到每次查询的用水量。常见的两个输入是:

  • 每次查询的能耗。多份技术估算将 ChatGPT 类回应置于 每次 2–4 瓦时(Wh) 的区间(2.9 Wh 常被作为一个中心估计)。即每次 0.0029 kWh
  • 水强度(WUE / 每千瓦时用水)。数据中心指标因设计与地域而异。一个被频繁引用的“行业平均”水资源使用效率(WUE)约为 1.8 升/kWh(≈0.475 加仑/kWh)——但实测值差异很大(从采用闭式空气系统接近于零,到蒸发式系统报告为消耗或取水时每 kWh 数升不等)。

将两者相乘得到一个直接换算:

  • 使用 2.9 Wh/次(0.0029 kWh)1.8 L/kWh0.00522 L/次 = 5.22 毫升0.00138 加仑/次

这一基于能耗的估算(约 5 ml / 0.0014 gal)比 OpenAI 给出的每次查询数值(0.32 ml)高出一个数量级。关于每次能耗、WUE、是否计入发电的间接用水,以及将模型的哪个部分(训练 vs 推理)分摊到“一次查询”,这些不同假设解释了大部分差异。见下方范围与敏感性分析。

数据中心冷却如何将电力转化为用水?

“用水”意味着什么:消耗 vs 取水

“数据中心用水”可以代表不同含义:

  • 现场消耗(蒸发):在冷却塔/绝热系统中被蒸发、且未回到当地水体的水。这通常对当地水资源压力最为重要。
  • 取水:从水源(河流、湖泊、含水层)取用,随后回排(可能更温或处理过)。即便消耗低,取水量也可能很大。
  • 间接用水(嵌入于电力):为数据中心供电的发电过程(热电、 水电等)所使用的水。许多全生命周期研究会将其计入。

报告与监管采用的指标组合不同。对于运营、且具有本地意义的指标,WUE(每千瓦时 IT 能耗对应的升级消耗水量)被广泛采用;对于全生命周期与政策讨论,常会把来自发电的间接用水加入其中。

冷却技术与水强度

冷却方式很关键:

  • 风冷/闭式冷冻水系统可实现极低的现场水消耗(WUE 接近零),但电力消耗更高,且电力的隐含用水更高。
  • 蒸发式冷却/冷却塔(在电费或效率驱动下常见)设计上就会消耗水;大型设施在炎热干燥地区被记录为每日消耗数百万加仑

一篇严格综述(Nature/npj Clean Water)记录了消耗值跨度极大——从接近零到 4.4 升/kWh(而取水量可能再高出数量级),取决于设计与气候。这种差异性正是每次查询用水数字可跨越两个数量级以上的核心原因。

按规模计算,ChatGPT 每天/每年用多少加仑水?

情景演算——透明假设

我们用常被引用的输入,为一次 ChatGPT 查询计算三种情景,并在假设查询量的前提下扩展到每日总量。

输入

  • 每次查询能耗:2.9 Wh = 0.0029 kWh(中心估计)。
  • 三种水强度(WUE):
    1. **低 WUE:**0.2 L/kWh(极高节水、闭式系统)。
    2. **行业平均 WUE:**1.8 L/kWh(广泛采用的基准)。
    3. **高 WUE:**4.4 L/kWh(文献观测上界)。

每次查询结果(升与加仑):

  • 低 WUE(0.2 L/kWh):0.0029 × 0.2 = 0.00058 L = 0.58 ml0.000153 gal
  • 平均 WUE(1.8 L/kWh):0.0029 × 1.8 = 0.00522 L = 5.22 ml0.00138 gal
  • 高 WUE(4.4 L/kWh):0.0029 × 4.4 = 0.01276 L = 12.76 ml0.00337 gal
    (换算:1 L = 1000 ml;1 L = 0.264172 gal。)

规模化示例(若 ChatGPT 每天处理 10 亿次查询):

  • 低 WUE:0.58 ml × 1e9 ≈ 580,000 升/天153,000 加仑/天
  • 平均 WUE:5.22 ml × 1e9 ≈ 522 万升/天138 万加仑/天
  • 高 WUE:12.76 ml × 1e9 ≈ 1,276 万升/天337 万加仑/天

这些是合理的示例数值——它们表明,即使单次用水极小,累计用水也可能相当可观。近期报道显示,在一些地区,超大规模设施集群的年耗水已达数亿到数十亿加仑

为什么训练与推理的区别重要

还有两个关键限定:

  • 训练模型(一次性创建模型的过程)能耗惊人,因此关联的用水足迹可能很大——但这部分消耗会被分摊到后续大量的推理查询中。训练的估算依模型而异,且往往远高于单次推理的足迹。
  • 推理(用户日常看到的响应)是经常发生的成本,也是上文每次查询计算的焦点。

将训练与推理混在一起且不清晰分摊会高估“每次查询”的足迹;反之,忽视训练又会低估模型的全生命周期足迹。独立分析通常会清楚说明包含哪些部分。

训练一个大模型(如 GPT-3/4)要用多少水?

大规模 Transformer 模型的训练相较于回答单个提示,是一次性但更耗水的活动。Li 等(2023)的一个值得注意的同行评/预印本分析估计,在美国超大规模数据中心训练 GPT-3 可能会直接蒸发约 700,000 升淡水(≈ ~185,000 加仑)——他们还预测,若趋势延续,到 2020 年代中期与 AI 相关的取水量将达数十亿立方米。这一例子表明,从绝对量看,训练可与许多个月的运行期相当。arXiv

训练的高用水源于在高密度 GPU 集群上长时间、持续高利用率的运行,再加上在某些设计中依赖显著蒸发式用水的冷却系统。训练是阶段性的但规模巨大;推理是持续性的但单次很小。两者共同决定模型的生命周期用水足迹。


为什么训练这么“渴”?

  • 持续时间与强度:训练可持续数天到数周,接近最大功率运行。
  • 高热通量:GPU 与封装带来高密度热量,常需要高效(有时依赖用水)的冷却。
  • 规模:最先进模型的训练可能需要成千上万块 GPU 的集群机架。
  • 区域约束:在缺水地区、采用蒸发式冷却的训练集群,比在寒冷气候下使用干式冷却机组的集群对本地水压力更不利。

哪些近期新闻会影响 ChatGPT 的用水足迹?

OpenAI 的基础设施扩张与选址

最新报道显示,OpenAI 正在积极推进大型基础设施项目,包括与阿根廷某重大数据中心项目的意向书——若建成,将把大量算力集中于一地并改变该地区的水/能动态。选址很重要:沿海或潮湿地区、再生水可达性、以及当地法规都会影响 WUE。

行业向低用水设计迈进

主要云服务商正在推出节水型数据中心设计:Microsoft 已发布计划与案例,表明通过采用芯片级冷却等创新,可让 AI 负载以近乎零现场蒸发用水运行(在 2024–2025 年间宣布)。若能广泛采用,这些工程路径可随时间显著降低每次查询的用水足迹。

结论

“到底用多少加仑”这个问题看似简单。像 0.000085 加仑/次 这样的数字令人鼓舞,说明现代云服务在能耗与用水方面已优化——但这只是全局的一部分。更大的议题是累计消耗、训练的长尾影响,以及大型设施的选址。独立研究(Li 等)、政府实验室(LBNL)的报告与近期行业评论(Altman)在实践层面趋同:AI 的用水足迹是可管理的——前提是提高透明度、采用更聪明的冷却选择、优化模型设计,并通过政策协同来保护本地水资源。

要开始,请在 Playground 探索如 GPT-5 Pro 等 ChatGPT 模型的能力,并查阅 API guide 获取详细说明。访问前,请确保已登录 CometAPI 并获取 API key。CometAPI 提供远低于官方价格的方案,帮助你完成集成。

准备好开始了吗?→ Sign up for CometAPI today

阅读更多

一个 API 中超 500 个模型

最高 20% 折扣