Energia e AI, A.D 2025: International Energy Agency, che ne pensi?
Questione di numeri
Allenare un modello linguistico di un triliardo di parametri consuma tanto quanto una cittadina italiana in 1 anno. Ogni domanda a chatGPT consuma come accendere una lampadina e lasciarla accesa un’ora. I ringraziamenti a ChatGPT stanno costando a mr. Altman un sacco di soldi. Etc, etc, etc. Chiunque ha sentito almeno una volta una di queste cose. E il serpeggiante pensiero che bruceremo il mondo a suon di immagini di studio Ghibli non può che sfiorarci.
Quanto dobbiamo preoccuparci?
L’International Energy Agency in aprile 2025 cerca di mettere ordine nel rumore, mettendo in fila qualche dato per contestualizzare meglio la situazione. E a noi i numeri piacciono!

Partiamo dal principio
Sappiamo che i modelli di AI girano nei data center, che ospitano anche tutto il resto del mondo digitale interconnesso. I data center sono nell’ordine delle decine di migliaia nel mondo, distribuiti in modo non propriamente uniforme tra le principali potenze digitali.

L’IEA ha calcolato che il consumo globale legato al loro funzionamento è di circa 415 TWh, l’1,5% dell’elettricità mondiale.
I consumi di un data center sono legati principalmente ai server che girano e al raffreddamento. In questo tipo di sistema il consumo legato al raffreddamento rappresenta solo il 7-10% dell’elettricità totale consumata dal data center. I data center di generazioni precedenti, quelli che sono maggiormente diffusi oggi, hanno invece consumi per il raffreddamento che rappresentano il 30% degli assorbimenti totali. Perché, come il vostro vecchio PC, computer vecchi scaldano molto e i device elettronici per funzionare bene devono essere tenuti al fresco.
Facendo una valutazione di base che considera la diffusione sempre più alta di data center ad alta efficienza, l’IEA stima che i consumi globali legati ai data center entro il 2030 potrebbero salire a più di 945 TWh, e arrivare a 1.200 TWh nel 2035, con un consumo in crescita principalmente a causa dei sistemi di AI che costruiamo e utilizziamo.

E poi? Come costruire uno scenario più a lungo termine? L’IEA per proiettare i consumi oltre al 2030 ipotizza altri 3 scenari limite oltre allo scenario base, spingendo la previsione di altri 5 anni nel futuro – fino al 2035. Gli scenari ipotizzano gradi di adozione dei sistemi di AI più o meno intensi, e tecnologie a differenti livello di efficienza.

Nello scenario Lift-Off, si prevede una forte crescita nell’adozione dell’intelligenza artificiale, supportata da una supply chain più resiliente e da una maggiore flessibilità nella localizzazione e gestione dei data center. Questo porta a una domanda elettrica superiore ai 1.700 TWh, pari a circa il 4,4% della domanda globale.
Lo scenario High Efficiency ipotizza un’evoluzione tecnologica più efficiente – a livello di software, hardware e infrastrutture – che consente di soddisfare la stessa domanda digitale consumando meno energia, con una domanda di circa 970 TWh, ovvero 2,6% della domanda globale.
Lo scenario Headwinds considera una diffusione più lenta dell’IA e ostacoli nella crescita dei data center, dovuti a colli di bottiglia e a una catena di approvvigionamento rigida. In questo contesto, la domanda elettrica si stabilizza intorno ai 700 TWh, rappresentando meno del 2% della domanda globale.
| Scenario | Domanda Elettrica Data Center (2035) | Quota sulla Domanda Globale | Caratteristiche Principali |
|---|---|---|---|
| Lift-Off | >1.700 TWh (+45% rispetto al Base) | ~4,4% | Alta adozione IA, supply chain resiliente, distribuzione flessibile dei data center |
| High Efficiency | ~970 TWh (–15% rispetto al Base) | ~2,6% | Maggiore efficienza software/hardware/infrastruttura, stessi servizi con meno energia |
| Headwinds | ~700 TWh (crescita piatta dopo il 2030) | <2% | Adozione IA lenta, colli di bottiglia locali, efficienza compensa crescita limitata dello stock |
Il futuro dell’efficienza
Vista a crescente esigenza ad aumentare l’efficienza dei sistemi di calcolo, la ricerca sta esplorando diverse modalità e strategie per diminuire l’impatto ambientale della tecnologia digitale.
L’IEA mappa in modo dettagliato le strategie per l’ottimizzazione dei consumi, aggregando i metodi in 3 categorie.
- La prima categoria racchiude tutti gli interventi nel mondo fisico e tangibile. Insomma, cose che se prendi a martellate di rompono: nuovi materiali e processori per i server, nuovi sistemi di memoria o impianti di raffreddamento più efficienti.
- La seconda categoria è quella nel mondo virtuale. Quella che se stacchi la spina non funziona più: algoritmi più semplici e leggeri, ottimizzazione del codice, meno celodurismo nella costruzione di architetture estremamente complesse.
- La terza unisce i due mondi in un approccio integrato. Sono le più facili da rompere, con martello o blackout a scelta del popolo: nuove progettazioni di processori e modelli integrati, la gestione ottimizzata dei server e dell’energia, la computazione quantistica e neuromorfica. Ve lo giuro, questa parola esiste (l’ho cercata su internet).
Tecniche diverse hanno impatti diversi sull’efficienza, che l’IEA sintetizza visivamente in una tabella amica della semplicità.

Sotto il velo del consumo
L’aI ci fa consumare energia elettrica, e di per sè questo non è un male. L’energia elettrica deve però essere prodotta, e a seconda di come la si produce genererà più o meno tonnellate di CO2, emissioni malvagie e altre cose che potrebbero farci non proprio benissimo.
L’IEA, che sa fare il suo lavoro, ha quindi approfondito le probabili fonti di produzione per i 3 scenari del 2035, in base alla distribuzione dei data center e al mix di produzione energetica dei paesi. Ogni paese ha delle tecnologie di produzione di potenza elettrica preferite – ad esempio l’Italia oggi è ancora molto dipendente dal gas naturale.
A seconda del mix di produzione e del posizionamento dei data center, è possibile quindi fare una valutazione di come aumenteranno le emissioni legate ai data center, e –sorpresa! – l’IEA stima che le emissioni toccheranno un picco intorno al 2030, e poi si stabilizzeranno in tutti gli scenari considerati. Le emissioni globali legate ai data center sono ad oggi inferiori all’1%, e si manterranno basse anche negli scenari futuri. Come reference, la FAO stima che l’industria della carne sia responsabile di circa il 18% delle emissioni di gas serra mondiali.

Questa stima ipotizza che nei prossimi 5 anni le fonti rinnovabili copriranno quasi la metà dell’aumento della domanda di elettricità dei data center a livello globale, seguite da vicino dalla generazione elettrica a gas naturale e da quella a carbone.
Geopolitica dei data ceter
Abbiamo però visto che i data center non sono distribuiti in maniera uniforme, ma si concentrano in poche regioni – prime tra tutti gli USA con il 45% delle installazioni. Più data center significa più richiesta di energia. l’IEA stima che in USA la percentuale di richiesta passerà dal 6% attuale al 13% entro il 2030.
La gestione della rete deve quindi far fronte ad un carico variabile aggiuntivo, molto intenso e poco prevedibile, che potrebbe mettere in crisi il sistema. Non essendoci ancora una gestione centralizzata a livello di rete, i gestori dei data center si stanno attrezzando per garantire la flessibilità necessaria grazie a metodologie alternative e in parte svincolate dalla rete elettrica nazionale.
Negli Stati Uniti, l’Electric Power Research Institute ha avviato l’iniziativa DCFlex per creare hub di flessibilità su larga scala, promuovendo nuove strategie di integrazione tra data center e rete elettrica. Parallelamente, il Dipartimento dell’Energia ha pubblicato linee guida che propongono lo sviluppo di una tassonomia e di un quadro normativo per incentivare operazioni più flessibili. Nell’Unione Europea, i data center rientrano nella Direttiva sulla Prestazione Energetica degli Edifici, che impone l’adozione di sistemi di automazione per migliorare l’interazione con la rete e favorire la partecipazione ai mercati di flessibilità. Diverse strategie possono abilitare questa flessibilità, tra cui l’uso di batterie onsite, utili in caso di stress di breve durata sulla rete. Queste non devono coprire l’intero carico dei data center, poiché durante le ore critiche oltre metà della capacità di rete è comunque disponibile. Sebbene i ricavi attuali dai servizi di flessibilità siano modesti rispetto ai costi operativi complessivi, molti operatori sono disposti a investire di più se ciò consente un accesso più rapido alla capacità di rete, evitando costi di opportunità elevati.
L’AI consuma ma fa risparmiare energia, promesso
Nel report, l’IEA presenta poi in modo dettagliato come l’AI può sostenere un mondo più efficiente grazie a una migliore gestione del dato e ottimizzazione dei processo.
Voi che leggete questo blog da un po’ siete ormai preparatissim* su come l’AI può avere impatti positivi nell’industria e nella gestione energetica, ma per completezza lascio la tabella di IEA – il report è poi molto esaustivo per cui vi consiglio di leggerlo.

I sistemi di AI sono potenzialmente esplosivi – metaforicamente parlando – non solo nelle applicazioni di ottimizzazione, controllo performance, gestione risorse o design, ma anche nella ricerca di nuovi materiali. Tutta la branca della graph AI applicata alle molecole e i sistemi di pattern recognition uniti a metodi di deep learning aprono le strade a nuovi modi di fare ricerca, in settori che sono o saranno a breve critici per la sostenibilità e l’innovazione.

Oltre al potenziale della tecnologia applicata l’IEA dedica un approfondimento anche alle barriere di ingresso per l’innovazione. Il problema più grosso è l’accesso ai dati – com’è che non sono sorpresa? Come sappiamo, senza dati i sistemi di IA non possono funzionare, e ottenere questi dati è complicato. Anche l’infrastruttura digitale e la sicurezza sono sfide importanti, sia per il loro impatto che per la fatica nel risolverle. Altri ostacoli come la mancanza di competenze, le regole e la fiducia sociale pesano un po’ meno, ma comunque servono sforzi non indifferenti per affrontarli. L’unico aspetto considerato abbastanza facile da gestire è la formazione: con i giusti investimenti in skill e training – o tanto tempo per aggiornarsi sulle risorse online, è facile entrare nel merito e iniziare a fare amicizia con i metodi dell’AI.
Quindi?
I sistemi di AI stanno spingendo in su il contabilizzatore del data centers. Oggi siamo a circa l’1-1,5%, nel 2035 potremmo essere al 2-4%. Le emissioni non saranno comunque altissime, in ogni caso nell’intorno dell’1-2% delle emissioni di CO2 globali. L’incremento di consumi stressa le reti, ma ci sono strategie per evitare che questo comporti danni o problemi
E senza l’AI non potremmo garantire sicurezza e stabilità delle reti, alte capacità predittive , sistemi di ottimizzazione in real time o strategie di ricerca materiali rapide ed efficienti. In una recente ricerca pubblicata su Nature si stima che nel settore buildings scenari con policy per la riduzione dei consumi potenziate da sistemi di AI portano ad una riduzione dei consumi due volte inferiore a scenari con le sole policy.

Quindi è molto vero che l’AI consuma tanto, ed è molto vero che il suo uso incrementerà il consumo elettrico mondiale. Ma se riusciamo a produrre elettricità i modo sostenibile, ottimizziamo i data center per raffreddarsi con meno acqua e applichiamo l’AI nei posti giusti, il beneficio ottenibile supera i lati negativi.

