Hvor meget vand bruger ChatGPT om dagen?

CometAPI
AnnaDec 6, 2025
Hvor meget vand bruger ChatGPT om dagen?

Kort svar: ChatGPTs globale tjeneste forbruger sandsynligvis i størrelsesordenen 2 millioner til 160 millioner liter vand hver dag — et meget bredt interval drevet af usikkerhed omkring (1) hvor meget energi en enkelt prompt forbruger, (2) hvor vandintensive datacentrene og det strømnet, der leverer deres elektricitet, er, og (3) hvor mange prompts der behandles hver dag. Et plausibelt "mellem"-estimat ved hjælp af veldokumenterede datapunkter er ~17 millioner liter om dagen for ~2.5 milliarder prompts/dag.

Hvad mener vi præcist med "vandforbrug" i ChatGPT?

Direkte vs. indirekte vandforbrug

Når folk spørger "hvor meget vand bruger ChatGPT", skal vi være tydelige: selve AI-tjenesten (softwaren) hælder ikke vand ud – vand forbruges af fysisk infrastruktur der driver tjenesten. To kategorier er vigtige:

  • Direkte (på stedet) vandforbrug: Vandforbrug i datacentres køle- og befugtningssystemer (fordampningskøletårne, vandkølere, befugtningsanlæg). Dette måles almindeligvis med brancheparametre Vandforbrugseffektivitet (WUE), hvilket er liter vandforbrug pr. kWh forbrugt IT-energi. WUE registrerer køling/befugtning vand forbrugt på stedet.
  • Indirekte (indlejret) vandforbrug: vand, der bruges til at generere den elektricitet, der driver datacentrene (termoelektrisk køling på kraftværker, vand, der bruges til brændstofudvinding og -forarbejdning osv.). I nogle regioner og energimixer kan den mængde vand, der bruges til at generere 1 kWh elektricitet, være betydelig. IEEE Spectrum og andre analyser kvantificerer vandudtaget og -forbruget pr. kWh til elproduktion.

Et forsvarligt estimat af det samlede vandaftryk lægger derfor de to sammen:
Total vand pr. kWh = WUE (L/kWh) + vandintensiteten for elproduktion (L/kWh).

Hvordan omregner man "energi pr. forespørgsel" til "vand pr. forespørgsel"?

Hvilke dataelementer er nødvendige?

Omdannelse fra energi til vand kræver tre input:

  1. Energi pr. forespørgsel (Wh/forespørgsel) — hvor mange watt-timer modellen bruger til at besvare en enkelt prompt.
  2. WUE (L/kWh) — hvor mange liter vand der forbruges for hver kilowatt-time, der bruges i datacenteret.
  3. Antal forespørgsler pr. dag — det samlede antal anmodninger, der er behandlet af tjenesten.

Vand pr. forespørgsel (liter) = (Wh/forespørgsel ÷ 1,000) × WUE (L/kWh)

Total vand pr. dag = Vand pr. forespørgsel × forespørgsler/dag

Hvor pålidelige er disse input?

  • Forespørgsler/dagOpenAIs tal på 2.5 milliarder/dag er et pålideligt udgangspunkt fra brancherapportering, men de reelle daglige tal varierer efter måned og tidszone.
  • Energi pr. forespørgsel: estimaterne varierer enormt. OpenAIs administrerende direktør, Sam Altman, udtalte, at en gennemsnitlig ChatGPT-forespørgsel bruger omtrent 0.34 Wh af energi (og han svarede til vandet pr. forespørgsel til en brøkdel af en teskefuld). Uafhængige akademiske og pressemæssige estimater for moderne, tunge AI-modeller spænder fra under en watttime til flere eller endda tocifrede watt-timer pr. forespørgsel, afhængigt af hvilken modelversion der betjener anmodningen, og om estimatet inkluderer overhead (routing, lager osv.). Denne variation er en af ​​hovedårsagerne til, at vandestimaterne afviger.
  • WUEVarierer også afhængigt af datacenterdesign og geografi — fra ≈0.2 L/kWh (meget effektiv, lukket kredsløb, ikke-fordampende) til over 10 L/kWh i nogle fordampningsopsætninger eller vand-ineffektive installationer. Internationale analyser viser et bredt bånd.

Fordi hver variabel har usikkerhed, multipliceres små ændringer til meget forskellige totaler.


Hvor meget vand bruger ChatGPT om dagen — bearbejdede eksempler med plausible antagelser?

Nedenfor præsenterer jeg et sæt transparente scenarier ved hjælp af tallet 2.5 milliarder forespørgsler/dag og almindeligt citerede WUE- og energiestimater. Beregningerne er enkle og reproducerbare; jeg viser lave, mellem og høje tilfælde, så du kan se følsomheden.

Scenarievariabler (kilder og begrundelse)

  • Forespørgsler/dag: 2.5 milliarder (OpenAI/presserapportering).
  • WUE-valg:
  • Lav (bedst i sin klasse): 0.206 L/kWh — offentliggjorte eksempler på yderst effektive faciliteter.
  • Gennemsnit: 1.8 l/kWh — almindeligt citeret branchegennemsnit.
  • Høj: 12 l/kWh — OECD/industriintervaller for mere vandintensive geografiske områder/arkitekturer.
  • Energi pr. forespørgselsvalg:
  • Lav (OpenAI CEO-tal): 0.34 Wh/forespørgsel (Sam Altmans udtalelse).
  • Høj (research/presse øvre estimat for største modeller): 18 Wh/forespørgsel (repræsentativ for tungere modelinstanser; brugt her som en illustration af den øvre grænse).

Beregnede output (udvalgte tilfælde)

Jeg viser liter/dag og gallon/dag for at gøre det nemmere at læse. (1 liter = 0.264172 amerikanske gallon.)

  1. Lav WUE og lavenergi (optimistisk)
  • WUE = 0.206 L/kWh; energi/forespørgsel = 0.34 Wh
  • Vand pr. forespørgsel ≈ 0.000070 l (≈0.07 ml)
  • Total vand/dag175,000 l/dag (≈ 46,300 amerikanske gallon/dag)
  1. Gennemsnitlig WUE & Lavenergi (Altman + branchens gennemsnit)
  • WUE = 1.8 L/kWh; energi/forespørgsel = 0.34 Wh
  • Vand pr. forespørgsel ≈ 0.000612 l (≈0.61 ml)
  • Total vand/dag1,530,000 l/dag (≈ 404,000 gallon/dag).
  1. Gennemsnitlig WUE og moderat energi (1-2 Wh/forespørgsel)
  • Ved 1 Wh/forespørgsel → 4,500,000 l/dag (≈1,188,774 gallon/dag).
  • Ved 2 Wh/forespørgsel → 9,000,000 l/dag (≈2,377,548 gallon/dag).
  1. Gennemsnitlig WUE og høj energi (10 Wh/forespørgsel)
  • 45,000,000 l/dag (≈11,887,740 gallon/dag).
  1. Høj WUE og høj energi (pessimistisk worst case)
  • WUE = 12 L/kWh; energi/forespørgsel = 18 Wh/forespørgsel
  • Vand pr. forespørgsel ≈ 0.216 l
  • Total vand/dag540,000,000 l/dag (≈ 143 millioner gallon/dag)

Disse øjebliksbilleder viser, at ændring af enten WUE or Hv/forespørgsel Ved beskedne faktorer produceres der meget forskellige totaler. Altman + gennemsnitlig WUE-tilfældet (≈1.53 millioner liter/dag, ~400 gallon/dag) er et plausibelt mellemestimat, hvis man accepterer hans energital pr. forespørgsel og et gennemsnitligt WUE for branchen. T


Hvorfor varierer de offentliggjorte estimater så voldsomt?

Primære kilder til usikkerhed

  1. Energi pr. prompt (kWh): afhænger af modeltype, promptlængde og inferenseffektivitet. Estimaterne varierer med en størrelsesorden mellem simple kald til små modeller og store multimodale GPT-4/GPT-5-stilforespørgsler. Publicerede uafhængige analyser placerer plausible værdier fra ~1 Wh til ~10 Wh pr. prompt.
  2. WUE (vandforbrug på stedet): Moderne hyperscale-cloududbydere investerer kraftigt i design med lavt vandforbrug (luftøkonomiske systemer, lukket væskekøling). En hyperscaler i Microsoft-klassen kan opnå meget lave WUE'er (Wettighedsforbrug i luften) mange steder (selv eksperimenter mod nul-vandkøling), mens ældre eller lokationsbegrænsede faciliteter kan have meget højere WUE'er. Dette interval driver en stor del af usikkerheden.
  3. Vandintensitet i gitteret: Elektricitet kan produceres med meget forskellig vandintensitet afhængigt af energimikset. Et datacenter drevet af 100 % PV/vind har et meget lavere indirekte vandaftryk end et, der drives af termoelektriske anlæg, der er afhængige af kølevand.
  4. Trafikmængde og hvad der tæller som en "prompt": OpenAIs "prompts" kan variere: korte prompts med kun ét spørgsmål vs. lange frem-og-tilbage-sessioner. Offentliggjorte daglige prompttotaler hjælper med at afbøde problemet, men mængden af ​​prompts varierer med samtalens længde og de anvendte hjælpetjenester.

På grund af beregningens multiplikative natur (energi × vandintensitet) er usikkerheden i hvert led sammensat, hvilket er grunden til, at vores lave/mellem/høje scenarier afviger med to størrelsesordener.

Hvilke praktiske skridt reducerer AI's vandaftryk?

Tekniske og operationelle greb

  • Flyt arbejdsbyrder til områder med lavt vandindhold eller faciliteter med lavt vandforbrug: Vælg datacentre, der bruger lukket kredsløb eller væske-til-chip-køling, og som får strøm fra elektricitetsblandinger med lavt vandforbrug. Hyperskalere offentliggør i stigende grad WUE- og PUE-målinger for at informere sådanne valg.
  • Anvend væskekøling og nedsænkning på chipniveau: Væskekøling reducerer efterspørgslen efter fordampningsvand dramatisk sammenlignet med store fordampningskøletårne. Adskillige operatører afprøver eller skalerer væskekøling til GPU-klynger.
  • Forbedr modeleffektivitet og inferensbatching: Optimeringer på softwareniveau (smartere batching, kvantiserede modeller, destillation) reducerer energi pr. respons, hvilket direkte sænker vandintensiteten, når energi→vand-konvertering anvendes. Akademisk arbejde er aktivt her.
  • Gennemsigtighed og rapportering: Standardiseret, tredjepartsrevideret rapportering af PUE/WUE og inferensmålinger pr. model ville muliggøre bedre offentlig regnskabsføring og politikudformning. Regulatorer i nogle jurisdiktioner presser allerede på for gennemsigtighed omkring vandtilladelser og lokale påvirkninger.

Kan brugere reducere ChatGPTs vandaftryk?

Brugerne påvirker det samlede fodaftryk ved at forme efterspørgslen. Praktiske forslag:

  • Stil fokuserede spørgsmål af høj kvalitet i stedet for mange små prompts (dette reducerer gentagne beregninger).
  • Foretrækker kortere, målrettede resultater når det er passende.
  • Brug lokale værktøjer til gentagne opgaver (f.eks. modeller på enheden eller cachelagrede resultater) hvor privatliv og ydeevne tillader det.
    Når det er sagt, er udbydernes valg af infrastruktur (hvilke datacentre der håndterer forespørgslerne, og hvilken køleteknologi de bruger) langt mere afgørende for vandforbruget end en individuel brugers prompts.

Konklusion: Hvad er et ansvarligt estimat for "ChatGPT vand pr. dag"?

Hvis du accepterer OpenAIs rapporterede 2.5 milliarder prompts/dag, Så:

  • Ved brug af Altmans 0.34 Wh/forespørgsel plus en Branchens gennemsnitlige WUE på 1.8 L/kWh fører til en **midtpunktsestimat ≈ 1.53 millioner liter/dag (~404,000 amerikanske gallon/dag)**Det er et forsvarligt overordnet estimat, hvis man accepterer disse to input.
  • Men skiftende antagelser giver et plausibelt interval fra ~175,000 l/dag (≈46 gallon) i optimistiske, bedst-i-klassen-scenarier op til hundredvis af millioner liter/dag i pessimistiske kombinationer af høj energi pr. forespørgsel og høj WUE. Den nedre ende svarer til datacentre i verdensklasse med lavt vandforbrug og lav energi pr. forespørgsel; den øvre ende svarer til tunge modelinstanser, der betjenes i vand-ineffektive anlæg. Spredningen er reel og væsentlig.

På grund af denne usikkerhed er de mest nyttige handlinger (a) at presse operatører til at offentliggøre klare, standardiserede WUE- og energi-per-inferens-målinger, (b) at prioritere design med lavt vandforbrug til nye AI-datacentre og (c) at fortsætte forskningen i software- og hardwaretilgange, der sænker beregningsbehovet pr. forespørgsel.

For at begynde, udforsk ChatGPT-modellen, f.eks. GPT-5 Pro 's evner i Legeplads og konsulter API guide for detaljerede instruktioner. Før du får adgang, skal du sørge for at være logget ind på CometAPI og have fået API-nøglen. CometAPI tilbyde en pris, der er langt lavere end den officielle pris, for at hjælpe dig med at integrere.

Klar til at gå? → Tilmeld dig CometAPI i dag !

Læs mere

500+ modeller i én API

Op til 20% rabat