OpenAI의 CEO Sam Altman은 공개적으로 다음과 같이 말했습니다. 평균 ChatGPT 쿼리 사용 ≈0.000085갤런 물의 (약 0.32 밀리리터(약 1/15 티스푼) 및 ≈0.34 와트시 쿼리당 전기 사용량입니다. 이 쿼리당 수치를 규모에 맞게 곱하면 의미가 있지만, 이전에 많은 공포주의자들이 주장했던 헤드라인보다는 훨씬 작습니다. 제공 ChatGPT를 제공하는 데이터 센터의 쿼리당 에너지 사용량과 물 사용 효율에 대한 Altman의 가정을 받아들인다고 가정해 보겠습니다. 다른 가정(특히 물 사용 효율(WUE) 값)을 사용한 독립적인 분석 결과는 실제보다 몇 배 더 높거나 낮을 수 있습니다.
단일 ChatGPT 쿼리는 실제로 얼마나 많은 물을 사용합니까?
OpenAI(및 CEO)가 말한 내용
공개 발언에서 OpenAI의 CEO와 대변인은 쿼리당 물 사용량에 대한 매우 적은 수치를 제시했습니다. 쿼리당 0.32밀리리터, 약으로 변환됩니다 0.000085의 갤런 (≈8.45×10⁻⁵ 갤런). 이는 쿼리당 약 1/15 티스푼의 물에 해당하며, 기업이 개별 상호작용의 미미한 영향을 입증하려고 할 때 가장 자주 인용되는 수치입니다.
독립적인 추정치가 다른 이유
독립 연구원과 NGO는 다른 접근 방식을 사용합니다. 즉, 쿼리당 소비되는 전기 에너지를 추정한 다음 곱합니다. 물의 강도 (전기 단위당 사용된 물)을 입력하여 쿼리당 물 사용량을 구합니다. 일반적으로 사용되는 두 가지 입력값은 다음과 같습니다.
- 쿼리당 에너지. 여러 기술적 추정에 따르면 ChatGPT 스타일 응답은 다음과 같습니다. 2~4와트시(Wh) 쿼리당(2.9Wh가 일반적으로 인용되는 중앙 추정치)입니다. 즉, 0.0029 kWh로 질의당.
- 물 사용량(WUE/kWh당 물). 데이터 센터 지표는 설계 및 지역에 따라 다릅니다. 자주 인용되는 "업계 평균" 물 사용 효율(WUE)은 다음과 같습니다. kWh당 1.8리터 (≈0.475갤런/kWh) — 하지만 측정된 값은 매우 다양합니다(폐쇄 루프 공기 시스템의 경우 거의 0에 가까움부터 소비량이나 인출량으로 보고되는 증발 시스템의 경우 kWh당 수 리터까지).
이것들을 합치면 간단한 변환이 가능합니다.
- 사용 2.9Wh/쿼리(0.0029kWh) 및 1.8L/kWh → 0.00522 L/쿼리 = 5.22 밀리리터 ≈ 0.00138의 갤런 질의당.
에너지 기반 추정치(~5ml/0.0014gal)는 다음과 같습니다. OpenAI의 쿼리당 수치보다 훨씬 더 큰 규모 (0.32ml). 쿼리당 에너지(WUE), 발전에서 발생하는 간접수 포함 여부, 그리고 모델의 어떤 부분(훈련 vs. 추론)을 "쿼리"에 할당하는지에 대한 가정이 이러한 차이의 상당 부분을 설명합니다. 범위 및 민감도 분석은 아래를 참조하십시오.
데이터 센터 냉각 시스템은 어떻게 전기를 물 사용으로 변환하는가?
"물 사용"의 의미: 소비 대 인출
"데이터 센터에서 사용하는 물"이라는 문구는 여러 가지 의미를 가질 수 있습니다.
- 현장 소비(증발): 냉각탑/단열 시스템에서 증발되어 지역 수역으로 되돌아가지 않는 물. 이는 일반적으로 지역 물 부족 현상에 가장 큰 영향을 미칩니다.
- 철수: 수원(강, 호수, 지하수층)에서 취수하여 나중에 (더 따뜻하거나 화학적으로 처리된) 물로 되돌려 보내는 것. 소비량이 적은 곳에서도 취수량이 많을 수 있습니다.
- 간접수(전기에 내장): 데이터 센터에 전력을 공급하는 전기 생산에 사용되는 물(화력 발전소, 수력 발전 등). 많은 수명 주기 연구에서 이 부분을 포함합니다.
보고서와 규제 기관은 이러한 지표를 다양하게 조합하여 사용합니다. 운영 측면에서 지역적으로 의미 있는 지표로는 WUE(IT 에너지 1kWh당 소비된 리터 수)가 널리 사용되고, 수명 주기 및 정책 논의에서는 발전으로 인한 간접 용수량이 추가되는 경우가 많습니다.
냉각 기술 및 물 강도
냉각 접근 방식이 중요합니다.
- 공랭식/폐쇄형 냉각수 시스템은 가질 수 있습니다 매우 낮은 현장 물 소비량 (WUE는 거의 0에 가까움) 하지만 전기 에너지 사용량이 더 높고 전기에 포함된 물의 양도 더 많습니다.
- 증발 냉각 / 냉각탑 (전기 비용이나 효율성이 선택을 좌우하는 일반적인 경우) 설계상 물을 소비합니다. 대규모 시설에서는 이를 사용하는 것으로 문서화되었습니다. 하루에 수백만 갤런 더운 건조한 지역에서.
엄격한 검토(Nature/npj Clean Water)에 따르면 소비량은 거의 0에서 매우 다양합니다. kWh당 4.4리터 (그리고 훨씬 더 큰 규모의 인출이 발생할 수 있습니다) 설계와 기후에 따라 달라집니다. 이러한 변동성이 쿼리당 물 사용량이 두 자릿수 이상으로 증가하는 핵심 이유입니다.
ChatGPT는 대규모로 하루/일년에 몇 갤런을 소비합니까?
시나리오 산술 - 투명한 가정
세 가지 시나리오를 계산해 보겠습니다. 한 일반적으로 인용되는 입력을 사용하여 ChatGPT 쿼리를 실행한 다음, 가상 쿼리 볼륨을 가정하여 일일 총계로 확장합니다.
입력
- 쿼리당 에너지: 2.9 어 = 0.0029 kWh로 (중앙 추정치).
- 물의 강도(3가지 경우):
- 낮은 WUE: 0.2 L/kWh(매우 물 효율적인 폐쇄형 시스템).
- 업계 평균 WUE: 1.8 L/kWh(널리 사용되는 벤치마크).
- 높은 WUE: 4.4 L/kWh(문헌에서 관찰된 상한값).
쿼리별 결과(리터 및 갤런):
- 낮은 WUE(0.2L/kWh): 0.0029 × 0.2 = 0.00058 L = 0.58ml ≈ 0.000153 gal.
- 평균 WUE(1.8L/kWh): 0.0029 × 1.8 = 0.00522 L = 5.22ml ≈ 0.00138 gal.
- 높은 WUE(4.4L/kWh): 0.0029 × 4.4 = 0.01276 L = 12.76ml ≈ 0.00337 gal.
(환산: 1L = 1000ml, 1L = 0.264172gal.)
확장된 예(ChatGPT가 하루에 1억 개의 쿼리를 처리하는 경우):
- 낮은 WUE: 0.58 ml × 1e9 ≈ 580,000리터/일 ≈ 153,000갤런/일.
- 평균 WUE: 5.22 ml × 1e9 ≈ 5.22만 리터/일 ≈ 1.38만 갤런/일.
- 높은 WUE: 12.76 ml × 1e9 ≈ 12.76만 리터/일 ≈ 3.37만 갤런/일.
이는 그럴듯한 설명적 숫자입니다. 즉, 다음을 보여줍니다. 쿼리당 숫자가 아주 작더라도 총 물 사용량은 의미가 있을 수 있습니다.. 최근 보고서에 따르면 이미 대규모 시설 클러스터가 소비하고 있습니다. 연간 수억에서 수십억 갤런 일부 지역에서.
훈련과 추론이 중요한 이유
두 가지 추가 자격 조건이 필수입니다.
- 훈련 모델 (모델을 생성하는 일회성 프로세스)는 막대한 에너지를 소모하기 때문에 상당한 양의 물 발자국을 초래할 수 있습니다. 하지만 이러한 소비량은 향후 여러 추론 쿼리에 걸쳐 상각됩니다. 학습 추정치는 모델별로 다르며, 쿼리당 추론 발자국보다 훨씬 큰 경우가 많습니다.
- 추론 (사용자가 매일 보는 응답)은 반복되는 비용이며 위의 쿼리별 계산의 초점입니다.
명확한 할당 없이 학습과 추론을 혼합하여 보고하면 쿼리당 사용 면적이 과장되고, 반대로 학습을 무시하면 모델의 수명 사용 면적이 축소됩니다. 독립적인 분석에서는 어떤 사용 면적이 포함되는지 신중하게 명시합니다.
대형 모델(예: GPT-3/4)을 훈련하는 데 얼마나 많은 물이 소모됩니까?
대형 변압기 모델을 훈련하는 것은 개별 질문에 답하는 것보다 훨씬 더 많은 물을 필요로 하는 일회성 활동입니다. Li 외 연구진(2023)의 주목할 만한 동료 평가/출판 전 분석에 따르면 GPT-3 훈련 미국 하이퍼스케일 데이터 센터에서는 ~700,000리터를 직접 증발 담수의 (≈ ~185,000갤런) 훈련 기간 동안, 그리고 추세가 지속된다면 2020년대 중반까지 AI 관련 취수량이 수십억 세제곱미터에 이를 것으로 예상했습니다. 이 사례는 훈련이 절대적인 물 사용량 측면에서 수개월에 달하는 운영 런타임과 경쟁할 수 있음을 보여줍니다. arXiv
학습 과정의 물 사용량은 고밀도 GPU 클러스터에서 장시간 연속적으로 높은 사용률을 보이는 실행과 설계에 따라 상당한 증발수 소비에 의존하는 냉각 시스템에서 비롯됩니다. 학습 과정은 단발적이지만 규모가 크고, 추론 과정은 연속적이지만 단위당 소비량은 적습니다. 이 두 가지가 합쳐져 모델의 수명 주기별 물 사용량을 결정합니다.
왜 훈련은 그토록 힘든가?
- 지속시간 및 강도: 최대 전력 사용량에 가까운 훈련은 며칠에서 몇 주까지 지속될 수 있습니다.
- 높은 열유속: GPU와 패키징은 집중된 열을 발생시키며, 이로 인해 효율적인(때로는 물을 이용한) 냉각이 필요한 경우가 많습니다.
- 규모 : 최첨단 모델을 훈련하려면 클러스터형 랙에 수천 개의 GPU가 필요할 수 있습니다.
- 지역적 제약: 물이 부족한 지역에서 증발식 냉각을 사용하는 동일한 훈련 클러스터는 추운 기후에서 건식 냉각기로 냉각된 클러스터보다 지역적 물 부족에 훨씬 더 해롭습니다.
최근 어떤 뉴스가 ChatGPT의 수자원 발자국에 영향을 미쳤나요?
OpenAI의 인프라 확장 및 위치 선택
최근 보도에 따르면 OpenAI는 아르헨티나의 대규모 데이터센터 프로젝트에 대한 의향서를 포함하여 대규모 인프라 프로젝트를 적극적으로 추진하고 있습니다. 이 프로젝트가 완공되면 한 지역에 상당한 컴퓨팅 자원을 집중시켜 지역 수자원/에너지 역학을 변화시킬 것입니다. WUE는 해안 지역이나 습한 지역, 재활용수 접근성, 그리고 지역 규정 등 입지에 따라 결정됩니다.
산업계, 저수위 설계로 전환
주요 클라우드 제공업체가 출시 중입니다. 물 절약형 데이터 센터 설계: Microsoft는 AI 워크로드를 실행할 수 있는 차세대 디자인에 대한 계획과 사례 연구를 발표했습니다. 현장 증발수 거의 0 칩 레벨 냉각 및 기타 혁신 기술(2024~2025년 발표)을 도입함으로써 이러한 엔지니어링 방향이 널리 채택될 경우, 시간이 지남에 따라 쿼리당 물 사용량을 크게 줄일 수 있습니다.
결론
"갤런 수"라는 질문은 속일 정도로 간단합니다. 쿼리당 숫자는 다음과 같습니다. 0.000085의 갤런 격려적으로 작으며 현대 클라우드 서비스가 에너지와 물에 최적화되어 있다는 것을 전달하는 데 도움이 됩니다. 단 한 조각 퍼즐의 핵심은 누적 소비량, 훈련의 장기적인 영향, 그리고 대규모 시설의 입지에 있습니다. 독립적인 연구(Li et al.), 정부 연구소 보고서(LBNL), 그리고 최근 업계 논평(Altman)은 모두 동일한 실질적인 결론에 도달합니다. AI의 물 발자국은 관리될 수 있지만, 더 나은 투명성, 더 스마트한 냉각 시스템 선택, 모델 설계의 효율성, 그리고 지역 수자원 보호를 위한 정책 연계가 뒷받침되어야만 가능합니다.
시작하려면 다음과 같은 ChatGPT 모델을 탐색하세요. GPT-5 프로 의 역량 운동장 그리고 상담하십시오 API 가이드 자세한 내용은 CometAPI를 참조하세요. 접속하기 전에 CometAPI에 로그인하고 API 키를 발급받았는지 확인하세요. 코멧API 공식 가격보다 훨씬 낮은 가격을 제공하여 통합을 돕습니다.
출발 준비 되셨나요?→ 지금 CometAPI에 가입하세요 !
