Ogni prompt ha un costo. Non solo soldi. Quando chiedi a ChatGPT di scrivere un’email, i data center consumano elettricità, i sistemi di raffreddamento prelevano acqua e, da qualche parte, una centrale brucia combustibile per tenere accese le luci. La domanda è se quel costo conti davvero.
Secondo la ricerca del MIT, il consumo di elettricità dei data center ha raggiunto 460 terawattora a livello globale nel 2022, l’equivalente dell’11° paese per consumo, collocandosi più o meno tra Arabia Saudita e Francia. Le proiezioni suggeriscono che potrebbe arrivare a 1.050 terawattora entro il 2026, il che li porterebbe al quinto posto nel mondo se i data center fossero una nazione.
Questi numeri sembrano astratti. Rendiamoli concreti. Una richiesta a ChatGPT consuma circa dieci volte l’elettricità di una ricerca su Google, secondo stime di Goldman Sachs. I modelli di ragionamento avanzato come l’o3 di OpenAI richiedono 7–40 wattora per richiesta, cioè fino a 100 volte più dei modelli testuali di base. La generazione di immagini richiede 20–40 volte più energia del testo, mentre la generazione di video richiede 1.000–3.000 volte di più.
Addestramento vs. inferenza: dove finisce davvero l’energia
C’è un equivoco diffuso. L’addestramento è il costo una tantum. L’inferenza è l’emorragia continua. Molte discussioni si fissano sull’addestramento, il picco drammatico di energia necessario per “insegnare” un modello, ma oggi l’inferenza domina il consumo totale perché avviene milioni di volte al giorno.
L’addestramento di GPT-4 ha consumato 50 gigawattora di energia, abbastanza per alimentare San Francisco per tre giorni. Sembra enorme, e lo è. Ma ecco il punto: oggi l’inferenza rappresenta l’80–90 percento del calcolo dell’IA, non l’addestramento. La curva lunga e costante di tutti che usano il modello finisce per superare quel picco iniziale.
Questo conta per come pensiamo al problema. Un singolo ciclo di addestramento è un costo fisso che puoi ammortizzare lungo la vita del modello. Ma l’inferenza scala con l’uso. Più persone usano l’IA, più energia consuma. Non esiste un tetto.
Come l’ha messa un utente di Hacker News, zekrioca: “Electricity and water are today’s main issues, but there are many indirect others.” L’impronta ambientale si estende oltre ciò che possiamo misurare facilmente: produzione dell’hardware, estrazione di terre rare e carbonio “incorporato” nella costruzione dei data center.
L’acqua di cui nessuno parla
I data center si scaldano. Il calore richiede raffreddamento. Il raffreddamento spesso richiede acqua.
Secondo ricerche citate dall’Environmental Law Institute, un tipico data center usa 300.000 galloni d’acqua al giorno, l’equivalente di circa 1.000 famiglie. Le strutture più grandi possono richiedere 5 milioni di galloni al giorno, come il fabbisogno di una città da 50.000 residenti.
L’impatto per singola richiesta varia in modo enorme, a seconda di chi interroghi. Il CEO di OpenAI, Sam Altman, sostiene che una tipica richiesta a ChatGPT usi “roughly one fifteenth of a teaspoon” d’acqua. Un’inchiesta del Washington Post ha suggerito che scrivere un’email generata dall’IA consumi un’intera bottiglia d’acqua. Ricercatori dell’UC Riverside hanno stimato 519 millilitri per un prompt di 100 parole. La verità probabilmente sta da qualche parte in questo intervallo, e cambia in base a posizione del data center, tecnologia di raffreddamento e fonte dell’elettricità.
Ciò che non è in discussione è la traiettoria. Entro il 2028, l’IA negli Stati Uniti potrebbe richiedere fino a 720 miliardi di galloni d’acqua all’anno solo per raffreddare i server dell’IA, abbastanza per coprire i bisogni domestici interni di 18.5 milioni di famiglie.
Qui si complica. Il raffreddamento evaporativo usa meno energia ma più acqua. Il raffreddamento ad aria usa più energia ma meno acqua. Ottimizzare una metrica peggiora l’altra. L’ingegnere di Cornell Fengqi You lo ha spiegato senza giri di parole nel reportage di Undark: “How much water you need depends on climate, technology used, and energy mix.”
La reazione umana
Le persone se ne accorgono. Su Reddit, utenti hanno espresso frustrazione per la disinvoltura con cui si usa l’IA, e uno ha osservato che “people are so nonchalant about it and act as if it’s just like Googling something when it actually is horrible for the environment.”
Ma il pubblico di Hacker News tende a un’altra lettura. L’utente joegibbs ha sostenuto: “We should be focusing on generating the energy we use more sustainably, rather than trying to make people spend all day deciding which personal choice to make.” Coglie qualcosa di reale nella tensione tra responsabilità individuale e cambiamento sistemico.
Un altro utente, wmf, l’ha messa in modo secco: “Emissions should be fixed on the production side (decarbonization) not on the demand side (guilt/austerity).”
Entrambe le prospettive contengono una parte di verità. Le scelte individuali scalano quando le fanno milioni di persone. Ma il senso di colpa individuale senza cambiamento sistemico crea solo ansia, mentre il problema cresce.
Che cosa determina l’impronta
Capire le leve aiuta. Non tutti gli usi dell’IA sono uguali.
Conta la dimensione del modello. I modelli più grandi richiedono più calcolo per ogni inferenza. GPT-4 è molto più energivoro di GPT-3.5, che a sua volta è più impegnativo di un piccolo modello specializzato. Molte attività che oggi finiscono su modelli di frontiera potrebbero funzionare benissimo con modelli più piccoli.
Conta il tipo di compito. Generare testo è relativamente economico. Generare immagini costa 20–40 volte di più. Generare video costa migliaia di volte di più. Un team marketing che genera decine di immagini al giorno con l’IA ha un’impronta drasticamente diversa rispetto a chi usa modelli testuali per bozze di email.
Conta il fornitore. I data center variano per efficacia d’uso dell’energia, fonti elettriche e sistemi di raffreddamento. Google riporta una riduzione di 33x dell’energia e di 44x del carbonio per il prompt “mediano” rispetto al 2024, mostrando quanto l’efficienza cambi tra fornitori.
Conta il luogo. Una ricerca su Nature Sustainability ha rilevato che una migliore scelta dei siti, una decarbonizzazione più rapida della rete e un’efficienza operativa maggiore potrebbero tagliare gli impatti sul carbonio di circa il 73% e quelli sull’acqua dell’86% rispetto a scenari peggiori. Il Midwest e gli stati della “windbelt” offrono il profilo migliore combinando carbonio e acqua.
Il paradosso dell’efficienza
Qui l’ottimismo si complica. L’IA sta diventando più efficiente. Molto più efficiente. Il problema è che i guadagni di efficienza vengono inghiottiti dall’aumento dell’uso.
È il paradosso di Jevons. Una tecnologia più efficiente rende più economico usarla, quindi le persone la usano di più, potenzialmente annullando del tutto i guadagni di efficienza. Come ha notato in modo secco un commentatore su Hacker News, Teever: “Yeah but Jevons paradox.”
La domanda globale di elettricità dell’IA è prevista crescere da 415 TWh a quasi 1.000 TWh entro il 2030. I miglioramenti di efficienza non tengono il passo con l’adozione.
L’industria ne è consapevole. La ricerca continua su architetture di modello più efficienti, ottimizzazioni migliori per l’inferenza e miglioramenti dell’hardware. Uno studio ha proposto algoritmi che potrebbero ridurre i costi energetici del 95% per certe operazioni. Ma affermazioni straordinarie richiedono prove straordinarie, come ha fatto notare un utente scettico, e il divario tra risultati di laboratorio e sistemi in produzione resta ampio.
Cosa puoi fare davvero
La risposta onesta è complicata.
Scegli il modello giusto. Usa il modello più piccolo che svolge il lavoro. Un’idea al volo non ha bisogno di GPT-4. La generazione massiva di testo non richiede capacità di ragionamento “di frontiera”. Molte piattaforme offrono la selezione del modello. Usala.
Scrivi prompt migliori. Un prompt chiaro e specifico che funziona al primo colpo batte tre prompt vaghi che richiedono iterazioni. Ogni clic su “rigenera” ha un costo. Modelli e strutture collaudate riducono tentativi ed errori.
Chiediti se serve. Non ogni compito trae beneficio dall’IA. Prima di inviare un prompt, chiediti se ti serve davvero. Potresti farlo più in fretta semplicemente facendolo da solo? Il beneficio marginale vale il consumo di risorse?
Valuta i fornitori. Le aziende di IA differiscono per impegni sulla sostenibilità. Alcune pubblicano dati dettagliati sull’efficienza. Alcune alimentano i data center con rinnovabili. Alcune non fanno né l’una né l’altra. Queste informazioni influenzano decisioni d’acquisto, su larga scala.
Ma ecco la verità scomoda: le azioni individuali, pur significative, non bastano. La scala del problema è sistemica. Circa il 60 percento dell’aumento della domanda elettrica dei data center sarà coperto bruciando combustibili fossili, aumentando le emissioni globali di carbonio di circa 220 milioni di tonnellate. Nessuna quantità di “prompt consapevoli” compensa quella traiettoria.
La responsabilità dell’industria
Il peso non dovrebbe ricadere solo sugli utenti. Non può.
Le principali aziende di IA hanno fatto promesse sulla sostenibilità. Impegni sulle rinnovabili. Programmi di compensazione delle emissioni. Ricerca sull’efficienza. Eppure, i report di sostenibilità mostrano in modo ricorrente un aumento delle emissioni assolute anche mentre l’efficienza per calcolo migliora. Il divario tra impegno e risultato è ampio.
Nove grandi aziende tech hanno mostrato fallimenti costanti in termini di trasparenza, con nessuna azienda che riporti metriche ambientali specifiche per l’IA pur riconoscendo l’IA come un fattore chiave dell’aumento dei consumi energetici. Non puoi gestire ciò che non misuri, e l’industria non sta misurando.
L’utente adrianN ha identificato il nodo: “The important part remains internalizing emission costs into the price of electricity.” Quando i costi ambientali non compaiono nel prezzo, vengono ignorati. I mercati ottimizzano ciò che misurano.
La domanda che stiamo evitando
Ecco ciò che nessuno vuole dire in modo diretto. Non sappiamo se i benefici dell’IA superino i costi ambientali. Non possiamo saperlo, perché non abbiamo quantificato onestamente nessuno dei due lati.
I benefici sono reali. Guadagni di produttività. Capacità creative. Potenza analitica. Accelerazione della ricerca. Medicina. Scienza. Contano.
Anche i costi sono reali. Emissioni di carbonio. Consumo d’acqua. Estrazione di risorse. Generazione di calore. Stress sulla rete. Contano anche questi.
Come ha osservato l’utente di Hacker News it_citizen: “The jury is still out on the cost benefit of AI on the long run.”
La conversazione tende agli estremi. L’IA ci salverà tutti. L’IA ci condannerà tutti. Nessuna delle due posizioni è utile. Ciò che è utile è un conteggio onesto, che non abbiamo, e una conversazione onesta sui compromessi, che evitiamo.
Dove ci lascia tutto questo
Continuo a tornare su qualcosa che l’utente neves ha scritto su Hacker News: “Society must have information to make decisions about what affects all the world.”
Questo è il problema centrale. Non abbiamo buone informazioni. Le stime sull’energia variano di ordini di grandezza. I calcoli sull’acqua si contraddicono. Le aziende non divulgano metriche specifiche per l’IA. I ricercatori lavorano con dati incompleti e fanno proiezioni in conflitto.
Ciò che sappiamo suggerisce che la traiettoria è preoccupante. Il consumo energetico dell’IA cresce più in fretta dei miglioramenti di efficienza. Lo stress idrico aumenta nelle regioni con alta concentrazione di data center. Gli impegni sul carbonio non vengono rispettati. E l’adozione accelera.
La strada avanti non è ovvia. Richiede una combinazione di miglioramenti dell’efficienza, diffusione delle rinnovabili, scelta più intelligente dei siti per i data center, consapevolezza d’uso e, probabilmente, regolamentazione. Richiede compromessi che non abbiamo affrontato con onestà.
Non ho una conclusione pulita. L’approccio “a checklist” qui sembra inadeguato: come sistemare le sedie a sdraio mentre si discute se la nave stia davvero affondando. I numeri sono reali. Anche l’incertezza è reale. La responsabilità è distribuita tra miliardi di utenti, decine di aziende e governi che non hanno ancora deciso come pensare a tutto questo.
Quello che so è che ogni prompt costa qualcosa. Il costo può valere la pena. Può anche non valerla. Ma fare finta che il costo non esista è una scelta, ed è una scelta che stiamo facendo da troppo tempo.
Related reading: AI Costs Explained: API Pricing covers the financial side of AI usage. AI Data Privacy and Compliance addresses another dimension of responsible AI adoption.