OpenAI 執行長 Sam Altman 公開表示 平均 ChatGPT 查詢使用 ≈0.000085加侖 水(約 0.32毫升(大約十五分之一茶匙)和 ≈0.34瓦時 每次查詢耗電量。這個每次查詢的數字,如果按比例乘以幾倍,就變得有意義了,但仍然比之前許多危言聳聽的標題所聲稱的要小得多—— 提供 您接受 Altman 關於每次查詢能耗以及 ChatGPT 資料中心用水效率的假設。使用不同假設(尤其是不同的用水效率 (WUE) 值)的獨立分析得出的數字可能會高出或低出數倍。
單一 ChatGPT 查詢實際上會使用多少水?
OpenAI(及其執行長)的言論
在公開演講中,OpenAI 的執行長和發言人給出了一個非常小的每次查詢用水量數字:大約 每次查詢 0.32 毫升,相當於 0.000085加侖 (≈8.45×10⁻⁵ 加侖)。這大約相當於每次查詢需要十五分之一茶匙的水,也是公司在試圖證明個體互動的微小邊際影響時最常被引用的數字。
為什麼獨立估計結果不同
獨立研究人員和非政府組織採用不同的方法:他們估算每次查詢所消耗的電能,然後乘以 水強度 (每單位電力消耗的水量)來取得每次查詢所需的水量。兩種常見的輸入方式如下:
- 每次查詢的能量。 幾項技術評估顯示,ChatGPT 風格的反應與 2–4瓦時(Wh) 每個查詢(2.9 Wh 是常用的中心估計值)。也就是說 0.0029千瓦時 每個查詢。
- 水強度(WUE/每度電)。 資料中心指標因設計和地區而異。經常被引用的「產業平均」水利用效率 (WUE) 約為 每千瓦時1.8升 (≈0.475加侖/度) — 但測量值範圍很廣(當報告為消耗或提取時,對於閉環空氣系統來說測量值接近於零,而對於蒸發系統來說測量值高達每千瓦時幾公升)。
把它們放在一起可以得到一個簡單的轉換:
- 運用 2.9 Wh/查詢(0.0029 kWh) 1.8 升/千瓦時 → 0.00522 公升/查詢 = 5.22毫升 ≈ 0.00138加侖 每個查詢。
基於能量的估計值(~5 ml / 0.0014 gal)是 比 OpenAI 的每次查詢資料高出一個數量級 (0.32 毫升)。關於每次查詢的能量、水分利用效率 (WUE)、是否包含發電產生的間接水以及將模型的哪一部分(訓練還是推理)分配給「查詢」的不同假設,在很大程度上解釋了這一差距。有關範圍和敏感性分析,請參見下文。
資料中心冷卻系統如何將電能轉換為水能?
「用水」的涵義:消耗與取用
「資料中心使用的水」這句話可以表示不同的意義:
- 現場消耗(蒸發): 在冷卻水塔/絕熱系統中蒸發的水,未返回當地水體。這通常對當地水資源壓力影響最大。
- 退出: 從水源(河流、湖泊、含水層)取水,然後返回(可能溫度較高或經過化學處理)。即使在用水量較低的地方,取水量也可能很大。
- 間接水(嵌入電): 用於生產資料中心電力(熱電廠、水力發電等)的水。許多生命週期研究都將其納入其中。
報告和監管機構使用這些指標的不同組合。對於具有操作性和地方意義的指標,WUE(每千瓦時IT能源消耗的升數)被廣泛使用;對於生命週期和政策辯論,通常會添加發電產生的間接水量。
冷卻技術和用水強度
冷卻方法很重要:
- 風冷/閉環冷凍水 系統可以有 現場耗水量極低 (接近零 WUE)但電能使用量較高且電力中所含水量較高。
- 蒸發冷卻/冷卻水塔 (在電力成本或效率驅動選擇的情況下很常見)按設計消耗水;據記錄,大型設施使用 每天數百萬加侖 在炎熱、乾燥的地區。
一項嚴格的審查(《自然》/npj《清潔水》)證明,消費價值差異很大——從接近零到 每千瓦時4.4升 (取水量可能會大幾個數量級),取決於設計和氣候。這種變化是每次查詢取水量跨度超過兩個數量級的核心原因。
ChatGPT 每天/每年消耗多少加侖?
場景算術——透明假設
讓我們計算一下三種情況 為前線醫護人員打氣,送上由衷的敬意。讓你在送禮的同時,也為香港盡一分力。 ChatGPT 使用常用的輸入進行查詢,然後根據假設的查詢量擴展到每日總數。
輸入
- 每次查詢的能量: 2.9瓦 = 0.0029千瓦時 (中心估計數)。
- 水強度(三種情況):
- 低水分利用效率: 0.2 公升/千瓦時(非常節水,封閉系統)。
- 業界平均WUE: 1.8 升/千瓦時(廣泛使用的基準)。
- 高水分利用效率: 4.4 L/kWh(文獻中觀察到的上限)。
每個查詢的結果(公升和加侖):
- 低 WUE(0.2 公升/kWh):0.0029 × 0.2 = 0.00058ł = 0.58毫升 ≈ 0.000153加侖.
- 平均 WUE(1.8 公升/kWh):0.0029 × 1.8 = 0.00522ł = 5.22毫升 ≈ 0.00138加侖.
- 高 WUE(4.4 公升/kWh):0.0029 × 4.4 = 0.01276ł = 12.76毫升 ≈ 0.00337加侖.
(換算:1 公升 = 1000 毫升;1 公升 = 0.264172 加侖)
擴充範例(假設 ChatGPT 每天處理 1 億次查詢):
- 低水分利用效率:0.58 ml × 1e9 ≈ 580,000萬升/天 ≈ 153,000 加侖/天.
- 平均水分利用效率:5.22 ml × 1e9 ≈ 5.22萬升/天 ≈ 1.38萬加侖/天.
- 高水分利用效率:12.76 ml × 1e9 ≈ 12.76萬升/天 ≈ 3.37萬加侖/天.
這些是合理的說明性數字——它們表明 即使每次查詢的數字很小,總用水量也可能有意義最近的報告顯示,超大規模設施集群已經消耗了 每年數億至數十億加侖 在某些地區。
為什麼訓練與推理很重要
另外兩個限定條件也必不可少:
- 訓練模型 (創建模型的一次性過程)會消耗大量能源,因此會產生大量的水足跡——但這些消耗將在未來多次推理查詢中攤銷。訓練的估算值因模型而異,通常遠大於每次查詢的推理足跡。
- 推理 (使用者每天看到的回應)是經常性成本和上述每個查詢計算的重點。
如果報告混合了訓練和推理,且沒有明確分配,則會誇大每次查詢的佔用空間;相反,忽略訓練會低估模型的生命週期佔用空間。獨立分析會仔細說明其包含哪些內容。
訓練大型模型(如 GPT-3/4)需要消耗多少水?
與回答單一問題相比,訓練大型 Transformer 模式是一項耗水量更大的一次性活動。 Li 等人(2023 年)在一篇值得注意的同儕審查/預印本分析中估計: 訓練 GPT-3 在美國超大規模資料中心可以 直接蒸發約700,000萬公升 淡水(≈ 約185,000加侖)——他們預測,如果這種趨勢持續下去,到2020年代中期,與人工智慧相關的取水量將達到數十億立方公尺。這個例子表明,就絕對用水量而言,訓練可以與數月的運行時間相媲美。 arXiv
訓練的耗水強度源自於在密集 GPU 叢集上長時間、持續的高利用率運行,以及依賴大量蒸發水消耗(取決於設計)的冷卻系統。訓練是階段性的,但規模較大;推理是連續的,但單位體積較小。它們共同決定了模型的生命週期水足跡。
為什麼訓練這麼口渴?
- 持續時間和強度: 在接近最大功率使用的情況下,訓練運行可持續數天至數週。
- 高熱通量: GPU 和封裝會產生集中的熱量,這通常需要高效的(有時需要水輔助的)冷卻。
- 規模: 訓練最先進的模型可能需要叢集機架中的數千個 GPU。
- 區域限制: 在缺水地區使用蒸發冷卻的相同訓練群集對於當地水資源壓力的影響比在寒冷氣候下使用乾式冷卻器冷卻的群集嚴重得多。
最近有哪些新聞影響了 ChatGPT 的水足跡?
OpenAI 的基礎設施擴展和位置選擇
最近的報告顯示,OpenAI 正在積極推動大型基礎設施項目,其中包括一份備受矚目的阿根廷大型資料中心項目意向書。該專案一旦建成,將把大量運算資源集中在一個地區,並改變該地區的水/能源動態。地理位置至關重要:沿海或潮濕地區、再生水的取得以及當地法規都會影響水資源利用率 (WUE)。
產業轉向低水位設計
各大雲端供應商正在推出 節水資料中心設計:微軟已經發布了關於下一代設計的計劃和案例研究,這些設計可以運行人工智慧工作負載 現場蒸發水量接近零 透過採用晶片級冷卻和其他創新技術(將於2024-2025年發布)。如果這些工程軌跡被廣泛採用,隨著時間的推移,可以顯著減少每次查詢的水足跡。
結論
「多少加侖」這個問題看似簡單。每次查詢都會傳回一個數字,例如 0.000085加侖 令人鼓舞的是,它很小,有助於傳達現代雲端服務在能源和水資源方面進行了優化——但它 僅一件 謎題的核心在於累積消耗、訓練的長尾影響以及大型設施的選址。獨立研究(Li 等人)、政府實驗室報告(LBNL)以及近期的行業評論(Altman)都得出了相同的實際結論:人工智慧的水足跡是可以管理的——但前提是提高透明度、選擇更聰明的冷卻方式、提高模型設計效率,並協調政策以保護當地水資源。
首先,探索 ChatGPT 模型,例如 GPT-5 專業版 的能力 游乐场 並諮詢 API指南 以獲得詳細說明。造訪前請確保您已經登入CometAPI並取得API金鑰。 彗星API 提供遠低於官方價格的價格,幫助您整合。
準備出發了嗎? → 立即註冊 CometAPI !
