Siamo abituati a pensare al digitale come a un regno etereo, fatto di bit, luce e segnali elettrici che viaggiano alla velocità del pensiero. Quando ci sediamo davanti al computer o prendiamo in mano lo smartphone per interrogare un sistema di Intelligenza Artificiale Generativa, l’esperienza è pulita, silenziosa e apparentemente priva di attrito fisico. Digitiamo un prompt, attendiamo una frazione di secondo e riceviamo una risposta elaborata. Eppure, dietro quella fluidità si nasconde una realtà termodinamica ineludibile. C’è un costo fisico, tangibile e sorprendentemente umido associato a ogni singola interazione: un sorso d’acqua invisibile che, sommato a miliardi di interazioni quotidiane, sta ridisegnando la mappa delle risorse idriche globali.
In questo 1 marzo 2026, mentre l’adozione di assistenti virtuali è ormai ubiqua, è fondamentale sollevare il velo sul meccanismo industriale che rende possibile il miracolo del machine learning. La curiosità che ci spinge oggi non riguarda la potenza di calcolo in sé, ma il suo sottoprodotto più inatteso. Perché una domanda posta a un chatbot dovrebbe costare, metaforicamente e talvolta letteralmente, quanto una bottiglietta d’acqua? La risposta risiede nelle viscere dei data center, dove il progresso tecnologico si scontra con le leggi della fisica.
La termodinamica del pensiero digitale
Per comprendere il nesso tra una riga di testo e l’acqua, dobbiamo prima guardare all’hardware. I modelli linguistici di grandi dimensioni (LLM) come quelli che alimentano ChatGPT o i suoi successori, non vivono nel vuoto. Risiedono su migliaia di unità di elaborazione grafica (GPU) e tensor processing units (TPU) stipate in server farm grandi quanto stadi di calcio. Questi chip sono progettati per eseguire calcoli matriciali complessi a velocità vertiginose, necessari per processare l’architettura neurale dei modelli.
Il problema fondamentale è l’efficienza energetica. Quando l’elettricità attraversa i semiconduttori per eseguire questi calcoli, incontra resistenza. Questa resistenza genera calore. Molto calore. Immaginate di far correre il motore di un’auto sportiva al massimo dei giri, in folle, all’interno di una stanza chiusa: la temperatura salirebbe rapidamente a livelli insostenibili. Un data center è, essenzialmente, una collezione di milioni di questi “motori” digitali che lavorano all’unisono.
Se il calore non viene rimosso istantaneamente, i chip rallentano (thermal throttling) per proteggersi o, nel peggiore dei casi, fondono. Qui entra in gioco il sistema di raffreddamento, ed è qui che l’acqua diventa protagonista.
Il ciclo dell’acqua: evaporazione e dissipazione

Esistono diversi modi per raffreddare i server, ma per le densità di potenza richieste dal deep learning moderno, l’aria condizionata tradizionale spesso non basta o è energeticamente inefficiente. L’acqua ha una capacità termica molto superiore all’aria: può assorbire molto più calore prima di scaldarsi. Per questo motivo, molti data center moderni utilizzano torri di raffreddamento evaporativo.
Il principio è simile a quello della sudorazione umana. Quando l’acqua evapora, sottrae calore all’ambiente circostante. Nei data center, l’acqua viene utilizzata per raffreddare l’aria che circola tra i server o, nelle configurazioni più avanzate (liquid cooling), viene fatta scorrere direttamente su piastre a contatto con i chip. L’acqua riscaldata viene poi inviata alle torri di raffreddamento, dove parte di essa evapora nell’atmosfera per dissipare il calore accumulato. Quell’acqua evaporata è persa per sempre dal ciclo locale immediato: è il “sorso” che il data center beve.
Studi condotti negli anni passati, e confermati dalle metriche attuali del 2026, stimano che una conversazione media con un’IA (composta da circa 20-50 scambi) possa comportare il consumo di circa 500 millilitri d’acqua. Questo calcolo include sia l’acqua evaporata direttamente per il raffreddamento dei server (Scope 1), sia quella consumata indirettamente per produrre l’elettricità che alimenta quei server (Scope 2), specialmente se l’energia proviene da fonti termoelettriche o idroelettriche che hanno tassi di evaporazione nei bacini.
Addestramento vs. Inferenza: due seti diverse

È importante distinguere tra due fasi cruciali nella vita di un’Intelligenza Artificiale: l’addestramento (training) e l’inferenza.
L’addestramento è la fase in cui il modello “impara” leggendo miliardi di testi. È un processo intensivo che può durare mesi. Durante questo periodo, migliaia di GPU lavorano al 100% della capacità, 24 ore su 24. Il consumo idrico di un singolo addestramento di un modello di frontiera può riempire piscine olimpioniche. Tuttavia, questo è un costo “una tantum”.
L’inferenza, invece, è ciò che accade quando l’utente pone una domanda. Il modello già addestrato elabora la risposta. Sebbene il costo energetico e idrico per singola domanda sia infinitesimale rispetto all’addestramento, il volume delle richieste è enorme. Miliardi di utenti che interrogano l’IA ogni giorno generano un consumo aggregato che supera di gran lunga quello dell’addestramento iniziale. È qui che il concetto di “bottiglia d’acqua per conversazione” diventa rilevante per il grande pubblico: è il costo operativo quotidiano dell’automazione cognitiva.
Geografia del consumo e stress idrico
Un aspetto critico di questa dinamica è la localizzazione. L’acqua consumata non è distribuita uniformemente. Se un data center si trova in una regione ricca di risorse idriche, l’impatto è gestibile. Ma spesso, per ragioni logistiche o fiscali, queste infrastrutture vengono costruite in aree aride o soggette a stress idrico. In questi casi, il “sorso” dell’IA entra in diretta competizione con l’agricoltura e il consumo civile.
Gli algoritmi non si preoccupano di dove si trovano fisicamente, ma l’infrastruttura sì. Quando chiediamo al nostro assistente digitale di riassumere un documento, la richiesta potrebbe essere instradata verso un server in Arizona o in Spagna, contribuendo al consumo idrico di quel specifico bacino idrografico. La “nuvola” (il cloud) è, ironicamente, ancorata a terra da tubature e pompe idrauliche.
L’efficienza come nuovo benchmark
Fortunatamente, l’industria non è cieca di fronte a questo problema. Nel 2026, l’efficienza idrica (Water Usage Effectiveness – WUE) è diventata un benchmark importante quanto la velocità di calcolo. Le grandi aziende tecnologiche stanno investendo in soluzioni innovative:
- Raffreddamento a circuito chiuso: Sistemi che riciclano l’acqua senza farla evaporare, sebbene richiedano più energia per funzionare.
- Raffreddamento a immersione: I server vengono immersi in fluidi dielettrici speciali che bollono a basse temperature e ricondensano, eliminando quasi del tutto la necessità di acqua esterna.
- Spostamento del carico: Algoritmi intelligenti che spostano le richieste di calcolo verso data center situati in regioni dove l’acqua è abbondante o il clima è naturalmente freddo (free cooling), riducendo la necessità di raffreddamento attivo.
Il progresso tecnologico sta cercando di curare il problema che esso stesso ha creato, spingendo verso modelli più piccoli e ottimizzati che richiedono meno energia per l’inferenza, riducendo così a monte la necessità di dissipazione termica.
In Breve (TL;DR)
Dietro l’interfaccia pulita dell’IA si nasconde una realtà termodinamica che richiede enormi risorse per gestire il calore generato.
I data center utilizzano sistemi di raffreddamento ad acqua per evitare il surriscaldamento dei processori durante l’elaborazione dei dati.
Una conversazione media con un assistente virtuale consuma circa mezzo litro d’acqua, sommando raffreddamento diretto ed energia elettrica.
Conclusioni

Il “sorso invisibile” non è una condanna all’utilizzo dell’Intelligenza Artificiale, ma un richiamo alla consapevolezza materiale del digitale. Ogni volta che interagiamo con un sistema di AI, attiviamo una catena industriale complessa che trasforma l’energia e l’acqua in informazione. Sapere che una lunga conversazione con un chatbot ha un’impronta idrica paragonabile a una bottiglia d’acqua non deve scoraggiarci dall’usare questi strumenti, ma deve spingerci a utilizzarli con intelligenza, evitando sprechi e supportando lo sviluppo di infrastrutture sostenibili. L’intangibile ha un peso, e nel caso dell’IA, questo peso si misura in litri.
Domande frequenti

Secondo stime recenti e metriche del 2026, una conversazione media con un’intelligenza artificiale, composta da circa 20-50 scambi, comporta un consumo di circa 500 millilitri d’acqua. Questo calcolo tiene conto sia dell’acqua evaporata direttamente per il raffreddamento dei server nei data center, sia di quella consumata indirettamente per la produzione dell’elettricità necessaria ad alimentare i processori.
I data center ospitano migliaia di GPU che eseguono calcoli complessi generando un calore intenso. Poiché l’acqua ha una capacità termica superiore all’aria, viene utilizzata nei sistemi di raffreddamento evaporativo per dissipare il calore in modo efficiente. Senza questo processo, i chip subirebbero rallentamenti termici o danni permanenti, rendendo impossibile il funzionamento dei moderni modelli linguistici.
L’addestramento è una fase intensiva che consuma enormi risorse idriche in un periodo limitato per istruire il modello. L’inferenza, invece, è il processo di risposta alle domande degli utenti; sebbene il costo per singola richiesta sia basso, il volume quotidiano di miliardi di interazioni genera un consumo aggregato che supera di gran lunga quello dell’addestramento iniziale, costituendo il vero costo operativo a lungo termine.
Le grandi aziende tecnologiche stanno investendo in diverse innovazioni per migliorare l’efficienza idrica (WUE). Tra queste figurano il raffreddamento a circuito chiuso che ricicla l’acqua, il raffreddamento a immersione dei server in fluidi dielettrici speciali e lo spostamento intelligente dei carichi di lavoro verso data center situati in regioni con climi freddi o con abbondanza di risorse idriche.
L’impatto ambientale dipende dalla localizzazione fisica dei data center. Se queste infrastrutture vengono costruite in regioni aride o soggette a siccità, il consumo d’acqua necessario per il raffreddamento entra in competizione con l’agricoltura e l’uso civile. Pertanto, una richiesta digitale può contribuire allo stress idrico di uno specifico bacino idrografico, anche se l’utente si trova dall’altra parte del mondo.
Hai ancora dubbi su Perché ogni domanda all’IA costa letteralmente una bottiglia d’acqua?
Digita qui la tua domanda specifica per trovare subito la risposta ufficiale di Google.






Hai trovato utile questo articolo? C’è un altro argomento che vorresti vedermi affrontare?
Scrivilo nei commenti qui sotto! Prendo ispirazione direttamente dai vostri suggerimenti.