Kort antwoord: de wereldwijde service van ChatGPT verbruikt waarschijnlijk in de orde van 2 miljoen tot 160 miljoen liter water per dag — een zeer breed bereik, gedreven door onzekerheid over (1) hoeveel energie een enkele prompt verbruikt, (2) hoe waterintensief de datacenters en het elektriciteitsnet zijn, en (3) hoeveel prompts er dagelijks worden verwerkt. Een plausibele 'midden'-schatting op basis van goed gedocumenteerde datapunten is ~17 miljoen liter per dag voor ~2.5 miljard prompts/dag.
Wat bedoelen we precies met ‘watergebruik’ voor ChatGPT?
Direct versus indirect watergebruik
Als mensen vragen “hoeveel water gebruikt ChatGPT”, moeten we duidelijk zijn: de AI-service zelf (de software) giet geen water – water wordt verbruikt door de fysieke infrastructuur die de service uitvoert. Twee categorieën zijn van belang:
- Direct (ter plaatse) watergebruik: water dat wordt gebruikt door koel- en bevochtigingssystemen in datacenters (verdampingskoeltorens, waterkoelers, luchtbevochtigers). Dit wordt doorgaans gemeten met de industriële maatstaf Effectiviteit van watergebruik (WUE), wat neerkomt op liters waterverbruik per kWh verbruikte IT-energie. WUE legt vast koeling/bevochtiging water dat op de locatie wordt verbruikt.
- Indirect (belichaamd) watergebruik: Water dat wordt gebruikt om de elektriciteit op te wekken die de datacenters van stroom voorziet (thermo-elektrische koeling in energiecentrales, water dat wordt gebruikt bij de winning en verwerking van brandstof, enz.). In sommige regio's en energiemixen kan het waterverbruik voor 1 kWh elektriciteit aanzienlijk zijn. IEEE Spectrum en andere analyses kwantificeren de wateronttrekking en het waterverbruik per kWh voor elektriciteitsopwekking.
Een verdedigbare schatting van de totale watervoetafdruk bestaat dus uit de volgende twee factoren:
Totaal water per kWh = WUE (L/kWh) + waterintensiteit van elektriciteitsopwekking (L/kWh).
Hoe zet je ‘energie per zoekopdracht’ om in ‘water per zoekopdracht’?
Welke gegevens zijn vereist?
Voor het omzetten van energie in water zijn drie inputs nodig:
- Energie per query (Wh/query) — Hoeveel wattuur verbruikt het model om één vraag te beantwoorden?
- WUE (L/kWh) — hoeveel liter water er per kilowattuur in het datacenter wordt verbruikt.
- Aantal zoekopdrachten per dag — het totale aantal verzoeken dat door de service is verwerkt.
Water per query (liter) = (Wh/query ÷ 1,000) × WUE (L/kWh)
Totaal water per dag = Water per query × queries/dag
Hoe betrouwbaar zijn deze gegevens?
- Vragen/dag:Het cijfer van 2.5 miljard per dag dat OpenAI hanteert, is een betrouwbaar startpunt op basis van rapportages uit de sector, maar de werkelijke dagelijkse aantallen variëren per maand en per tijdzone.
- Energie per query: schattingen lopen enorm uiteen. OpenAI's CEO Sam Altman stelde dat een gemiddelde ChatGPT-query ongeveer 0.34 Wh van energie (en hij vergeleek het water per zoekopdracht met een fractie van een theelepel). Onafhankelijke academische en persschattingen voor moderne, zware AI-modellen variëren van minder dan een wattuur tot meerdere of zelfs dubbele cijfers in watt-uren per query, afhankelijk van welke modelversie de aanvraag bedient en of de schatting overhead (routering, opslag, enz.) omvat. Deze variatie is een belangrijke reden waarom waterschattingen uiteenlopen.
- WUE: varieert ook per datacenterontwerp en -geografie — van ≈0.2 l/kWh (zeer efficiënt, gesloten circuit, niet-verdampend) tot meer dan 10 l/kWh in sommige verdampingsopstellingen of waterinefficiënte installaties. Internationale analyses laten een brede bandbreedte zien.
Omdat elke variabele onzekerheid kent, kunnen kleine veranderingen leiden tot heel verschillende totalen.
Hoeveel water verbruikt ChatGPT per dag? — uitgewerkte voorbeelden met aannemelijke aannames.
Hieronder presenteer ik een reeks transparante scenario's met behulp van het cijfer van 2.5 miljard zoekopdrachten per dag en de veelgebruikte WUE- en energieschattingen. De berekeningen zijn eenvoudig en reproduceerbaar; ik toon lage, gemiddelde en hoge gevallen zodat u de gevoeligheid kunt zien.
Scenariovariabelen (bronnen en rechtvaardiging)
- Vragen/dag: 2.5 miljard (OpenAI/persberichtgeving).
- WUE-keuzes:
- Laag (beste in zijn klasse): 0.206 L/kWh — gepubliceerde voorbeelden van zeer efficiënte faciliteiten.
- Gemiddeld: 1.8 L/kWh — een veelgenoemd sectorgemiddelde.
- Hoog: 12 L/kWh — OECD/industrie-bereiken voor gebieden/architecturen met een grotere waterintensiteit.
- Energie per querykeuzes:
- Laag (CEO-cijfer van OpenAI): 0.34 Wh/query (Verklaring van Sam Altman).
- Hoog (onderzoek/pers bovenste schatting voor grootste modellen): 18 Wh/query (representatief voor zwaardere modelexemplaren; hier gebruikt als een illustratie met een bovengrens).
Berekende uitkomsten (geselecteerde gevallen)
Voor de leesbaarheid gebruik ik liters/dag en gallons/dag. (1 liter = 0.264172 Amerikaanse gallons.)
- Lage WUE en lage energie (optimistisch)
- WUE = 0.206 L/kWh; energie/vraag = 0.34 Wh
- Water per zoekopdracht ≈ 0.000070 L (≈0.07 ml)
- Totaal water/dag ≈ 175,000 L/dag (≈ 46,300 US gallons/dag)
- Gemiddelde WUE & Laag-energie (Altman + industriegemiddelde)
- WUE = 1.8 L/kWh; energie/vraag = 0.34 Wh
- Water per zoekopdracht ≈ 0.000612 L (≈0.61 ml)
- Totaal water/dag ≈ 1,530,000 L/dag (≈ 404,000 gallons/dag).
- Gemiddelde WUE en matige energie (1–2 Wh/query)
- Bij 1 Wh/query → 4,500,000 L/dag (≈1,188,774 gallons/dag).
- Bij 2 Wh/query → 9,000,000 L/dag (≈2,377,548 gallons/dag).
- Gemiddelde WUE en hoge energie (10 Wh/query)
- 45,000,000 L/dag (≈11,887,740 gallons/dag).
- Hoge WUE en hoge energie (pessimistisch worstcasescenario)
- WUE = 12 L/kWh; energie/vraag = 18 Wh/vraag
- Water per zoekopdracht ≈ 0.216 L
- Totaal water/dag ≈ 540,000,000 L/dag (≈ 143 miljoen gallons/dag)
Deze momentopnames laten zien dat het veranderen van WUE or Wh/query door bescheiden factoren levert zeer verschillende totalen op. De Altman + gemiddelde WUE-situatie (≈1.53 miljoen liter/dag, ~400 gallons/dag) is een plausibele schatting als je zijn energie-per-query-cijfer en een gemiddelde WUE voor de sector accepteert. T
Waarom variëren de gepubliceerde schattingen zo sterk?
Primaire bronnen van onzekerheid
- Energie per prompt (kWh): Afhankelijk van het modeltype, de lengte van de prompt en de efficiëntie van de inferentie. Schattingen variëren aanzienlijk tussen eenvoudige oproepen van kleine modellen en grote multimodale GPT-4/GPT-5-achtige verzoeken. Gepubliceerde onafhankelijke analyses plaatsen plausibele waarden van ~1 Wh tot ~10 Wh per prompt.
- WUE (watergebruik ter plaatse): Moderne hyperscale cloudproviders investeren fors in ontwerpen met een laag waterverbruik (luchtbesparende systemen, gesloten vloeistofkoeling). Een hyperscaler van Microsoft-klasse kan op veel locaties zeer lage WUE's bereiken (zelfs experimenten met watervrije koeling), terwijl oudere of locatiegebonden faciliteiten veel hogere WUE's kunnen hebben. Dat bereik is verantwoordelijk voor een groot deel van de onzekerheid.
- Netwaterintensiteit: Elektriciteit kan worden opgewekt met zeer verschillende waterintensiteiten, afhankelijk van de energiemix. Een datacenter dat 100% op zonne-energie/windenergie draait, heeft een veel lagere indirecte watervoetafdruk dan een datacenter dat draait op thermo-elektrische centrales die afhankelijk zijn van koelwater.
- Verkeersvolume en wat als een 'prompt' wordt beschouwd: De 'prompts' van OpenAI kunnen variëren: korte prompts met één vraag versus lange heen-en-weersessies. Gepubliceerde dagelijkse prompttotalen helpen het probleem te beperken, maar de hoeveelheid per prompt varieert afhankelijk van de gespreksduur en de gebruikte ondersteunende diensten.
Vanwege de multiplicatieve aard van de berekening (energie × waterintensiteit) wordt de onzekerheid in elke term groter. Daarom verschillen onze laag/midden/hoog-scenario's met twee ordegroottes.
Welke praktische stappen kunnen de watervoetafdruk van AI verkleinen?
Technische en operationele hefbomen
- Verplaats werklasten naar gebieden met laag waterpeil of faciliteiten met een lage waterstand: Kies datacenters die gebruikmaken van closed-loop- of liquid-to-chip-koeling en die stroom halen uit waterbesparende elektriciteitsmixen. Hyperscalers publiceren steeds vaker WUE- en PUE-statistieken om dergelijke keuzes te onderbouwen.
- Gebruik vloeistofkoeling en onderdompeling op chipniveau: Vloeistofkoeling vermindert de vraag naar verdampingswater aanzienlijk in vergelijking met grote verdampingskoeltorens. Verschillende exploitanten testen of schalen vloeistofkoeling voor GPU-clusters op.
- Verbeter de modelefficiëntie en inferentiebatching: Optimalisaties op softwareniveau (slimmere batching, gekwantificeerde modellen, destillatie) verlagen de energie per respons, waardoor de waterintensiteit direct wordt verlaagd wanneer energie→waterconversie wordt toegepast. Academisch onderzoek is hier actief.
- Transparantie en rapportage: Gestandaardiseerde, door derden gecontroleerde rapportage van PUE/WUE en per-model inferentiegegevens zou een betere openbare verantwoording en beleidsvorming mogelijk maken. Toezichthouders in sommige rechtsgebieden dringen al aan op transparantie over watervergunningen en lokale effecten.
Kunnen gebruikers de watervoetafdruk van ChatGPT verkleinen?
Gebruikers beïnvloeden de totale voetafdruk door de vraag te sturen. Praktische suggesties:
- Stel gerichte, kwalitatief hoogwaardige vragen in plaats van veel kleine prompts (dit vermindert herhaalde berekeningen).
- Geef de voorkeur aan kortere, gerichte uitkomsten indien van toepassing.
- Gebruik lokale tooling voor repetitieve taken (bijvoorbeeld modellen op het apparaat of gecachte resultaten) waar privacy en prestaties dit toelaten.
Dat gezegd hebbende, zijn de infrastructuurkeuzes van aanbieders (welke datacenters de query's verwerken en welke koeltechnologie ze gebruiken) veel bepalender voor het waterverbruik dan de aanwijzingen van een individuele gebruiker.
Kortom: wat is een verantwoorde schatting voor “ChatGPT-water per dag”?
Als u de gerapporteerde informatie van OpenAI accepteert 2.5 miljard prompts/dag, Dan:
- gebruik Altman's 0.34 Wh/query plus een industriegemiddelde WUE van 1.8 L/kWh leidt tot een **schatting van het middenpunt ≈ 1.53 miljoen liter/dag (~404,000 US gallons/dag)**Dat is een verdedigbare schatting als je deze twee inputs accepteert.
- Maar veranderende aannames geeft een aannemelijk bereik van ~175,000 L/dag (≈46 gallons) in optimistische best-in-class scenario's tot honderden miljoenen liters/dag in pessimistische combinaties van hoge energie per vraag en hoge WUE. De ondergrens komt overeen met datacenters van wereldklasse met een laag waterverbruik en een lage energie per vraag; de bovengrens komt overeen met zware modelinstanties die worden bediend in waterinefficiënte centrales. De spreiding is reëel en materieel.
Vanwege die onzekerheid zijn de meest nuttige acties (a) operators ertoe aanzetten om duidelijke, gestandaardiseerde WUE- en energie-per-inferentie-metrieken te publiceren, (b) prioriteit geven aan ontwerpen voor koeling met laag water voor nieuwe AI-datacenters en (c) doorgaan met onderzoek naar software- en hardwarebenaderingen die de rekenkracht per query verlagen.
Om te beginnen, verken het ChatGPT-model zoals GPT-5 Pro 's mogelijkheden in de Speeltuin en raadpleeg de API-gids voor gedetailleerde instructies. Zorg ervoor dat u bent ingelogd op CometAPI en de API-sleutel hebt verkregen voordat u toegang krijgt. KomeetAPI bieden een prijs die veel lager is dan de officiële prijs om u te helpen integreren.
Klaar om te gaan?→ Meld u vandaag nog aan voor CometAPI !
