De CEO van OpenAI, Sam Altman, heeft publiekelijk verklaard dat een gemiddelde ChatGPT-query gebruikt ≈0.000085 gallons van water (ongeveer 0.32 milliliters(ongeveer een vijftiende theelepel) en ≈0.34 wattuur elektriciteit per vraag. Dat getal per vraag wordt, wanneer vermenigvuldigd op schaal, betekenisvol, maar blijft veel kleiner dan veel eerdere alarmerende krantenkoppen beweerden — inbegrepen U accepteert Altmans aannames over energie per query en de waterefficiëntie van de datacenters die ChatGPT bedienen. Onafhankelijke analyses met verschillende aannames (met name verschillende waarden voor Water Usage Effectiveness (WUE)) leveren getallen op die meerdere malen hoger of lager kunnen uitvallen.
Hoeveel water verbruikt één ChatGPT-query eigenlijk?
Wat OpenAI (en zijn CEO) hebben gezegd
In openbare toespraken hebben de CEO en woordvoerders van OpenAI een zeer klein watercijfer per query genoemd: ongeveer 0.32 milliliter per zoekopdracht, wat neerkomt op ongeveer 0.000085 liter (≈8.45 × 10⁻⁵ gal). Dat is ongeveer een vijftiende theelepel water per zoekopdracht en is het getal dat het vaakst wordt genoemd wanneer bedrijven de kleine, marginale impact van individuele interacties willen aantonen.
Waarom onafhankelijke schattingen verschillen
Onafhankelijke onderzoekers en NGO's gebruiken een andere aanpak: ze schatten het elektrische energieverbruik per vraag en vermenigvuldigen dit vervolgens met een waterintensiteit (waterverbruik per eenheid elektriciteit) om een water-per-vraag-getal te krijgen. Twee veelvoorkomende invoergegevens zijn:
- Energie per zoekopdracht. Verschillende technische schattingen plaatsen ChatGPT-stijlreacties in de buurt van 2–4 wattuur (Wh) per query (2.9 Wh is een veelgenoemde centrale schatting). Dat is 0.0029 kWh per zoekopdracht.
- Waterintensiteit (WUE / water per kWh). Datacenterstatistieken variëren per ontwerp en regio. Een veelgenoemd 'industriegemiddelde', de Water Usage Effectiveness (WUE), gaat over 1.8 liter per kWh (≈0.475 gallons/kWh) — maar de gemeten waarden lopen sterk uiteen (van bijna nul voor gesloten luchtsystemen tot meerdere liters per kWh voor verdampingssystemen wanneer deze worden gerapporteerd als verbruik of onttrekking).
Als je deze samenvoegt, krijg je een eenvoudige conversie:
- gebruik 2.9 Wh/vraag (0.0029 kWh) en 1.8 l/kWh → 0.00522 L/query = 5.22 milliliters ≈ 0.00138 liter per zoekopdracht.
Deze op energie gebaseerde schatting (~5 ml / 0.0014 gal) is een orde van grootte groter dan het cijfer per query van OpenAI (0.32 ml). Verschillende aannames over energie per query, WUE, of indirect water uit elektriciteitsopwekking moet worden meegenomen, en welk deel van het model (training versus inferentie) je toewijst aan "een query", verklaren een groot deel van de kloof. Zie hieronder voor bereiken en gevoeligheidsanalyse.
Hoe zetten koelsystemen in datacenters elektriciteit om in waterverbruik?
Wat “watergebruik” betekent: consumptie versus onttrekking
De uitdrukking "water gebruikt door een datacenter" kan verschillende dingen betekenen:
- Consumptie ter plaatse (verdampt): Water dat verdampt in koeltorens/adiabatische systemen en niet terugstroomt naar lokale waterlichamen. Dit is meestal de meest ernstige oorzaak van lokale waterstress.
- intrekking: Water dat uit een bron (rivier, meer, grondwaterlaag) wordt gehaald en later wordt teruggevoerd (mogelijk warmer of chemisch behandeld). De onttrekking kan groot zijn, zelfs bij een laag verbruik.
- Indirect water (ingebed in elektriciteit): water dat wordt gebruikt om de elektriciteit te produceren die het datacenter van stroom voorziet (thermo-elektrische centrales, waterkrachtcentrales, enz.). Veel levenscyclusstudies voegen dit toe.
Rapporten en toezichthouders gebruiken verschillende combinaties van deze meetgegevens. Voor een operationele, lokaal relevante indicator wordt WUE (liters verbruikt per kWh IT-energie) veel gebruikt; voor levenscyclus- en beleidsdebatten wordt vaak indirect water uit elektriciteitsopwekking toegevoegd.
Koeltechnologieën en waterintensiteit
Koelingsaanpak is belangrijk:
- Luchtgekoeld / gesloten gekoeld water systemen kunnen hebben zeer laag waterverbruik ter plaatse (bijna nul WUE), maar hoger elektriciteitsverbruik en meer water in elektriciteit.
- Verdampingskoeling / koeltorens (gebruikelijk waar elektriciteitskosten of efficiëntie de keuzes bepalen) verbruiken water volgens ontwerp; grote faciliteiten zijn gedocumenteerd voor het gebruik miljoenen gallons per dag in hete, droge streken.
Uit een grondig onderzoek (Nature/npj Clean Water) is gebleken dat de consumptiewaarden sterk uiteenlopen – van bijna nul tot 4.4 liter per kWh (en onttrekkingen die ordes van grootte groter kunnen zijn), afhankelijk van het ontwerp en het klimaat. Die variabiliteit is de belangrijkste reden waarom de waterwaarden per onderzoek meer dan twee ordes van grootte beslaan.
Hoeveel gallons per dag/jaar verbruikt ChatGPT op grote schaal?
Scenario-rekenkunde – transparante aannames
Laten we drie scenario's berekenen voor een ChatGPT-query's maken gebruik van veelgebruikte invoergegevens en schalen deze vervolgens op naar dagelijkse totalen, uitgaande van hypothetische queryvolumes.
Ingangen
- Energie per zoekopdracht: 2.9 Wh = 0.0029 kWh (centrale schatting).
- Waterintensiteiten (drie gevallen):
- Lage WUE: 0.2 L/kWh (zeer waterbesparend, gesloten systemen).
- Gemiddelde WUE in de sector: 1.8 L/kWh (veelgebruikte maatstaf).
- Hoge WUE: 4.4 L/kWh (bovengrens waargenomen in de literatuur).
Resultaten per query (liters en gallons):
- Lage WUE (0.2 l/kWh): 0.0029 × 0.2 = 0.00058 L = 0.58 ml ≈ 0.000153 gal.
- Gemiddelde WUE (1.8 l/kWh): 0.0029 × 1.8 = 0.00522 L = 5.22 ml ≈ 0.00138 gal.
- Hoge WUE (4.4 l/kWh): 0.0029 × 4.4 = 0.01276 L = 12.76 ml ≈ 0.00337 gal.
(Conversies: 1 L = 1000 ml; 1 L = 0.264172 gal.)
Geschaald voorbeeld (als ChatGPT 1 miljard zoekopdrachten per dag verwerkt):
- Lage WUE: 0.58 ml × 1e9 ≈ 580,000 liter/dag ≈ 153,000 gallons/dag.
- Gemiddelde WUE: 5.22 ml × 1e9 ≈ 5.22 miljoen liter/dag ≈ 1.38 miljoen gallons/dag.
- Hoge WUE: 12.76 ml × 1e9 ≈ 12.76 miljoen liter/dag ≈ 3.37 miljoen gallons/dag.
Dit zijn plausibele illustratieve cijfers – ze tonen aan dat Het totale waterverbruik kan zinvol zijn, zelfs als de aantallen per zoekopdracht klein zijnUit recente rapportages blijkt dat clusters van hyperscale-faciliteiten al honderden miljoenen tot miljarden gallons per jaar in sommige regio's.
Waarom training versus inferentie belangrijk is
Er zijn twee aanvullende kwalificaties essentieel:
- Modellen trainen (het eenmalige proces om het model te creëren) verbruikt enorm veel energie en kan daarom een grote watervoetafdruk hebben – maar dat verbruik wordt terugverdiend over vele toekomstige inferentievragen. Schattingen voor training zijn modelspecifiek en vaak veel groter dan de inferentievoetafdrukken per vraag.
- Gevolgtrekking (de dagelijkse antwoorden die gebruikers zien) zijn de terugkerende kosten en vormen de focus van bovenstaande berekeningen per query.
Het rapporteren dat training en inferentie worden gecombineerd zonder duidelijke toewijzing, overschat de footprint per query; het negeren van training daarentegen onderschat de levenslange footprint van een model. Onafhankelijke analyses vermelden zorgvuldig welke ze omvatten.
Hoeveel water verbruikt het trainen van een groot model (zoals GPT-3/4)?
Het trainen van grote transformatormodellen is een veel waterintensievere, eenmalige activiteit dan het beantwoorden van individuele vragen. Een opmerkelijke, peer-reviewed/pre-print analyse door Li et al. (2023) schatte dat GPT-3-training in Amerikaanse hyperscale datacentra zouden kunnen direct verdampen ~700,000 liter van zoet water (≈ ~185,000 gallons) tijdens de trainingsrun – en ze voorspelden een AI-gerelateerde wateronttrekking van miljarden kubieke meters tegen medio 2020, als de trends zich zouden voortzetten. Dit voorbeeld laat zien dat training kan concurreren met vele maanden operationele looptijd in absolute watertermen. arXiv
De waterintensiteit van de training is afkomstig van lange, continue, intensieve runs op dichte GPU-clusters, gecombineerd met koelsystemen die – afhankelijk van het ontwerp – afhankelijk zijn van een aanzienlijk verdampingswaterverbruik. De training is episodisch maar omvangrijk; de inferentie is continu maar per eenheid klein. Samen bepalen ze de levenslange watervoetafdruk van een model.
Waarom is trainen zo dorstig?
- Duur en intensiteit: Trainingsruns kunnen dagen tot weken duren bij bijna maximaal energieverbruik.
- Hoge warmtestroom: GPU's en hun behuizing creëren geconcentreerde hitte, waarvoor vaak efficiënte koeling (soms met water) nodig is.
- Schaal: Voor het trainen van geavanceerde modellen zijn mogelijk duizenden GPU's in geclusterde racks nodig.
- Regionale beperkingen: Dezelfde trainingscluster in een gebied met waterschaarste die gebruikmaakt van verdampingskoeling, is veel slechter voor de lokale waterstress dan een cluster die wordt gekoeld door droge koelers in een koud klimaat.
Welk recent nieuws heeft invloed op de watervoetafdruk van ChatGPT?
Uitbreiding van de infrastructuur en locatiekeuzes van OpenAI
Uit recente berichtgeving blijkt dat OpenAI actief bezig is met grote infrastructuurprojecten, waaronder een spraakmakende intentieverklaring voor een groot datacenterproject in Argentinië – een ontwikkeling die, indien gerealiseerd, aanzienlijke rekenkracht in één regio zou concentreren en de regionale water- en energiedynamiek zou veranderen. Locatie is van belang: kustgebieden of vochtige gebieden, toegang tot gerecycled water en lokale regelgeving bepalen allemaal de WUE.
De industrie beweegt richting ontwerpen voor lager water
Grote cloudproviders zijn bezig met de uitrol waterbesparende datacenterontwerpen: Microsoft heeft plannen en casestudies gepubliceerd over ontwerpen van de volgende generatie die AI-werklasten kunnen uitvoeren met bijna nul verdampend water ter plaatse Door chip-level koeling en andere innovaties te implementeren (aangekondigd in 2024-2025). Deze technische trajecten kunnen de watervoetafdruk per vraag op termijn aanzienlijk verkleinen als ze breed worden toegepast.
Conclusie
De vraag "hoeveel gallons" is bedrieglijk eenvoudig. Een getal per query zoals 0.000085 liter is bemoedigend klein en helpt communiceren dat moderne clouddiensten energie- en watergeoptimaliseerd zijn, maar het is slechts één stuk van de puzzel. Het grotere verhaal gaat over cumulatief verbruik, de langetermijneffecten van training en de locatie van grote faciliteiten. Onafhankelijk onderzoek (Li et al.), rapportages van overheidslaboratoria (LBNL) en recent commentaar uit de industrie (Altman) komen allemaal tot dezelfde praktische conclusie: de watervoetafdruk van AI kan worden beheerd – maar alleen met meer transparantie, slimmere koelkeuzes, efficiënter modelontwerp en beleidsafstemming om lokale waterbronnen te beschermen.
Om te beginnen, verken het ChatGPT-model zoals GPT-5 Pro 's mogelijkheden in de Speeltuin en raadpleeg de API-gids voor gedetailleerde instructies. Zorg ervoor dat u bent ingelogd op CometAPI en de API-sleutel hebt verkregen voordat u toegang krijgt. KomeetAPI bieden een prijs die veel lager is dan de officiële prijs om u te helpen integreren.
Klaar om te gaan?→ Meld u vandaag nog aan voor CometAPI !
