L’intelligenza artificiale generativa, come quella utilizzata nei chatbot, ha un impatto notevole non solo per la sua capacità di elaborazione, ma anche per l’energia e l’acqua che richiede. Molti non si rendono conto che dietro una semplice richiesta di testo c’è un’intera infrastruttura di data center che lavora intensamente per elaborare e restituire risposte in pochi istanti. Ma quali sono i reali costi ambientali di questa tecnologia?
Consumi di ChatGPT: energia e acqua in cifre
Quando si richiede a ChatGPT di generare una breve e-mail, ad esempio di 100 parole, il processo coinvolge server potenti che operano nei data center, come quelli di Microsoft attraverso Azure. Questi server consumano energia elettrica per funzionare e richiedono anche sistemi di raffreddamento per dissipare il calore generato. Questo avviene attraverso complessi impianti che utilizzano grandi quantità di acqua.
I consumi variano in base alla posizione dei data center. Secondo gli studi dell’Università della California, un data center situato nello stato di Washington, vicino alla sede di Microsoft, consuma circa 1.468 millilitri di acqua per la generazione di un’e-mail da 100 parole. In Texas, il consumo si riduce a 235 millilitri. In media, per ogni e-mail, vengono utilizzati circa 519 millilitri d’acqua.
L’impatto su larga scala
Ora, immagina che 16 milioni di lavoratori americani richiedano a ChatGPT di scrivere un’e-mail a settimana per un anno. Il consumo idrico complessivo supererebbe i 435 milioni di litri, l’equivalente dell’acqua usata da tutte le famiglie del Rhode Island in un giorno e mezzo.
Oltre all’acqua, viene utilizzata anche una quantità significativa di energia: ogni e-mail richiede circa 0,14 kWh, che corrisponde all’energia necessaria per mantenere accese 14 lampadine LED per un’ora. A livello collettivo, ciò si traduce in oltre 121 MW all’anno, equivalenti all’energia consumata dalle famiglie del District of Columbia in 20 giorni.
Con l’aumento delle dimensioni dei modelli di intelligenza artificiale, i server utilizzati per l’addestramento diventano sempre più potenti e affamati di risorse. Basti pensare che per addestrare GPT-3, Microsoft ha utilizzato oltre 700.000 litri di acqua, una quantità sufficiente per produrre circa 45 kg di carne bovina. Altri giganti tecnologici, come Meta, hanno impiegato risorse ancora maggiori: per addestrare il modello Llama 3, sono stati consumati ben 22 milioni di litri d’acqua, equivalenti a 2.000 kg di riso.
Il futuro e la sostenibilità
Le grandi aziende tecnologiche hanno dichiarato l’intenzione di ridurre le emissioni di gas serra e migliorare la sostenibilità delle loro operazioni. Ma, con il crescente utilizzo dell’intelligenza artificiale, raggiungere questi obiettivi diventerà sempre più difficile.
Microsoft, ad esempio, ha annunciato l’uso di energia nucleare per sostenere i suoi data center, cercando così soluzioni più pulite per alimentare la crescente domanda energetica.

