简短答案:ChatGPT 的全球服务每日用水量很可能在一个非常宽的区间内,约为每天 200 万到 1.6 亿升水——这一巨大差异源于不确定性:(1)单次请求的能耗究竟是多少;(2)提供电力的数据中心及电网的用水强度如何;(3)每天处理的请求数量是多少。基于有文献支撑的数据点的一个中位估计是:在每天约 25 亿次请求的情况下,约每天 1700 万升。
我们所说的“ChatGPT 的用水”究竟指什么?
直接与间接用水
当人们问“ChatGPT 用了多少水”时,必须明确:AI 服务本身(软件)不会用水——用水的是运行该服务的物理基础设施。两个类别很重要:
- 直接(现场)用水:数据中心的冷却与加湿系统所用的水(蒸发式冷却塔、水冷机、加湿器)。行业常用指标为 Water Usage Effectiveness(WUE,单位为每千瓦时 IT 能耗对应的用水升数)。WUE衡量的是现场用于冷却/加湿的用水。
- 间接(隐含)用水:用于发电的水(电厂的热电冷却、燃料开采与加工所用水等)。在一些地区与电力结构下,为发出 1 kWh 电力所用的水可能相当可观。IEEE Spectrum 等分析量化了发电的取水与消耗(按 kWh 计)。
因此,合理的总水足迹估算将二者相加:
总用水(每 kWh) = WUE(L/kWh) + 发电的用水强度(L/kWh)。
如何把“每次查询的能耗”换算成“每次查询的用水”?
需要哪些数据?
从能耗转换为用水需要三个输入:
- 每次查询的能耗(Wh/query)——模型回答单个请求所消耗的瓦时数。
- WUE(L/kWh)——数据中心每消耗 1 kWh 所对应的用水升数。
- 每日查询次数——该服务每天处理的总请求数。
每次查询的用水(升) =(Wh/query ÷ 1,000)× WUE(L/kWh)
每日总用水 = 每次查询的用水 × 每日查询次数
这些输入有多可靠?
- 每日查询次数:OpenAI 的每天 25 亿次数据是一个可靠的起点,实际每日数量会随月份与时区波动。
- 每次查询能耗:估计差异巨大。OpenAI CEO Sam Altman 表示,平均单次 ChatGPT 查询约消耗 0.34 Wh(并将其等同于一小部分茶匙的用水)。独立学术与媒体对现代、重负载 AI 模型的估计从不足 1 Wh 到每次查询数瓦时甚至两位数瓦时不等,取决于服务请求时用的是哪个模型版本,以及是否包含路由、存储等开销。这种差异是各种用水估算分歧的核心原因。
- WUE:也因数据中心设计与地域差异而变化——从约 0.2 L/kWh(高效、闭环、非蒸发式)到某些蒸发式配置或用水效率低的设施超过 10 L/kWh。国际分析显示区间很宽。
因为每个变量都存在不确定性,微小变化会使总量相差甚大。
ChatGPT 每天用水多少——使用合理假设的示例计算?
下面我用每天 25 亿次请求、常见的 WUE 与能耗估计做一组透明场景。计算很简单可复现;我展示低、中、高三档,以呈现敏感性。
场景变量(来源与依据)
- 每日查询次数:25 亿(OpenAI/媒体报道)。
- WUE 选项:
- 低(业界领先):0.206 L/kWh——公开的高效设施案例。
- 平均:1.8 L/kWh——行业常见平均值。
- 高:12 L/kWh——OECD/行业在更高用水地区/架构的范围。
- 每次查询能耗选项:
- 低(OpenAI CEO 数字):0.34 Wh/query(Sam Altman 的表述)。
- 高(研究/媒体对最大模型的上限估计):18 Wh/query(代表更重的模型实例;此处用于上限示例)。
计算结果(部分案例)
为便于阅读,我同时给出升/天与加仑/天。(1 升 = 0.264172 美国加仑。)
- 低 WUE 与低能耗(乐观)
- WUE = 0.206 L/kWh;能耗/查询 = 0.34 Wh
- 每次查询用水 ≈ 0.000070 L(≈0.07 mL)
- 每日总用水 ≈ 175,000 L/天(≈ 46,300 美国加仑/天)
- 平均 WUE 与低能耗(Altman + 行业平均)
- WUE = 1.8 L/kWh;能耗/查询 = 0.34 Wh
- 每次查询用水 ≈ 0.000612 L(≈0.61 mL)
- 每日总用水 ≈ 1,530,000 L/天(≈ 404,000 加仑/天)
- 平均 WUE 与中等能耗(1–2 Wh/query)
- 在 1 Wh/query → 4,500,000 L/天(≈1,188,774 加仑/天)
- 在 2 Wh/query → 9,000,000 L/天(≈2,377,548 加仑/天)
- 平均 WUE 与高能耗(10 Wh/query)
- 45,000,000 L/天(≈11,887,740 加仑/天)
- 高 WUE 与高能耗(悲观最坏情况)
- WUE = 12 L/kWh;能耗/查询 = 18 Wh/query
- 每次查询用水 ≈ 0.216 L
- 每日总用水 ≈ 540,000,000 L/天(≈ 143 million 加仑/天)
这些快照显示,只需适度改变 WUE 或 Wh/查询,结果就会大相径庭。若接受 Altman 的能耗数字并使用行业平均 WUE(≈1.53 百万升/天,约 40 万加仑/天),这是一个可辩护的中位估计。T
为何已发表的估算差异如此之大?
主要不确定来源
- 每次请求能耗(kWh):取决于模型类型、提示长度与推理效率。简单的小模型调用与大型多模态 GPT-4/GPT-5 类请求之间可能相差一个数量级。独立分析给出的合理区间约在每次请求 ~1 Wh 到 ~10 Wh。
- WUE(现场用水):现代超大规模云提供商在低用水设计上投入很大(空气节能器、闭环液冷)。类似 Microsoft 级别的超大规模厂商在很多地点可实现非常低的 WUE(甚至探索接近零用水冷却),而较旧或受地点限制的设施可能有更高的 WUE。这一范围贡献了不确定性的很大部分。
- 电网用水强度:电力的用水强度随电力结构变化很大。数据中心若由 100% 光伏/风电供电,其间接用水足迹会远低于依赖冷却水的热电厂电力。
- 流量规模与“提示”的定义:OpenAI 的“提示”可能不同:简短的单问提示 vs. 长篇往复会话。已公布的每日提示总数有助于设定边界,但每次提示的用水会随会话长度与辅助服务而变化。
由于计算是乘法(能耗 × 用水强度),各项不确定性会叠加,这就是低/中/高场景相差两个数量级的原因。
降低 AI 用水足迹的务实举措?
工程与运营杠杆
- 将负载迁移至低用水地区或低 WUE 的设施:选择采用闭环或芯片级液冷并从低用水电力结构供电的数据中心。超大规模运营商越来越多地发布 PUE/WUE 指标以供参考。
- 采用液冷与芯片级浸没:与大型蒸发式冷却塔相比,液冷可显著降低蒸发用水需求。多家运营商正在试点或扩大用于 GPU 集群的液冷。
- 提升模型效率与推理批处理:软件层优化(更智能的批处理、量化、蒸馏)降低每次响应能耗,当进行能耗→用水转换时直接降低用水强度。相关学术研究正在进行中。
- 透明与报告:标准化、第三方审计的 PUE/WUE 与各模型推理指标报告,将促进更好的公共核算与政策制定。一些司法辖区监管方已推动用水许可与本地影响的透明化。
用户能否降低 ChatGPT 的用水足迹?
用户可通过影响需求来改变总体足迹。实践建议:
- 尽量提出聚焦、优质的提示,而非大量碎片化提示(减少重复计算)。
- 在合适情境下,选择更短、更有针对性的输出。
- 对重复任务使用本地工具(如设备端模型或缓存结果),在隐私与性能允许的情况下。
尽管如此,服务提供商的基础设施选择(哪些数据中心提供服务、使用何种冷却技术)对用水影响远大于个体用户的提示。
结论:对于“ChatGPT 每天用水”什么是负责任的估计?
若接受 OpenAI 报告的每天 25 亿次提示,则:
- 采用 Altman 的 0.34 Wh/查询并使用行业平均 WUE 1.8 L/kWh,得到的中位估计约为每天 1.53 百万升(约 404,000 美国加仑/天)。若接受这两项输入,这是一个可辩护的头条估算。
- 但改变假设会得到一个合理区间:在乐观的业界最佳场景下约 175,000 L/天(≈46k 加仑),到在高每次查询能耗与高 WUE 的悲观组合下达到数亿升/天。低端对应世界级低用水数据中心与低每次查询能耗;高端对应在用水效率低的设施中服务重负载模型实例。这个区间差异真实且显著。
鉴于不确定性,最有用的行动是:(a)推动运营商发布清晰、标准化的 WUE 与每次推理能耗指标;(b)为新的 AI 数据中心优先采用低用水冷却设计;(c)持续研究在软件与硬件层面降低每次查询计算量的方案。
To begin, explore the ChatGPT model such as [GPT-5 Pro]’s capabilities in the [Playground] and consult the [API guide] for detailed instructions. Before accessing, please make sure you have logged in to CometAPI and obtained the API key. [CometAPI] offer a price far lower than the official price to help you integrate.
Ready to Go?→ [Sign up for CometAPI today] !
