Sostenibilità

L’intelligenza artificiale è sostenibile?

Che impatto ha sull’ambiente l’intelligenza artificiale?

Il tema è entrato a gamba tesa sull’anno in corso. Dopo un 2023 nel quale a tenere banco a tutti i livelli è stata l’AI in tutti i suoi risvolti, principalmente di carattere innovativo, etico e normativo, ora si è iniziato a chiedersi quanta energia si stima potrà consumare nell’immediato futuro il suo utilizzo. Ma anche quanta acqua. 

Insomma, la domanda è: l’intelligenza artificiale è sostenibile oppure no?

Partiamo da un report, quello pubblicato a inizio 2024 dall’Agenzia Internazionale dell’Energia. Secondo i calcoli fatti, misurando la domanda di energia nei data center (i centri di calcolo informatici, composti da migliaia di service) viene affermato che il consumo del 2022 si è attestato a circa 460 terawattora. Nel 2026, secondo la stima, potrebbe arrivare a una forchetta che va dai 620 ai 1.050 terawattora. Tanti o pochi? Molti, se si considera che il dato equivale al fabbisogno energetico rispettivamente di due interi Paesi: il primo la Svezia e il secondo la Germania. Un consumo energetico “spinto” dalle criptovalute e dall’intelligenza artificiale.

Dati che stanno attivando qualche campanello d’allarme a livello globale, con la preoccupazione che la corsa all’AI possa presto trasformarsi in “insostenibile” per l’ambiente.

Il sito Geopop.it ha dato notizia che all’incontro annuale del World Economic Forum che si è tenuto in Svizzera a gennaio Sam Altman, amministratore delegato di OpenAI (l’azienda proprietaria di ChatGPT), in merito alle sfide energetiche del settore ha affermato che “è necessaria una svolta” per abbattere il consumo di energia e acqua potabile legato all’AI. E che Toshihaki Higashihara, presidente di Hitachi, ha dichiarato che si stima che nel 2050 i data center consumeranno una quantità di energia elettrica mille volte superiore a oggi. Proprio per lo sviluppo dell’intelligenza artificiale. 

Ma perché l’intelligenza artificiale ha bisogno di così tanta energia elettrica?

“Per garantire l’addestramento e le risposte alle milioni di query che ogni giorno vengono inviate a tool di intelligenza artificiale con ChatGPT o Google Gemini sono necessari enormi data center in cui consumo energetico è tutt’altro che trascurabile, sia per mantenere attivi i computer sia per alimentare i loro sistemi di raffreddamento”, fa sapere Geopop.it, che propone la stima prodotta da un gruppo di ricerca dell’Università di Washington, secondo il quale proprio ChatGPT ha bisogno di circa un gigawattora al giorno. Ossia l’equivalente del consumo di 33mila famiglie statunitensi medie.

L’intelligenza artificiale però non consuma solamente energia elettrica. Per raffreddare i server c’è infatti bisogno di acqua. Si è arrivati a stimare che nel 2027 – quindi fra meno di appena tre anni – l’AI potrà consumare tra i 4,2 e i 6,6 miliardi di metri cubi di acqua. 

Per capire come fare a rendere maggiormente green l’intelligenza artificiale, abbiamo posto il problema direttamente a ChatGPT. Secondo la quale è necessario un approccio multi-fattoriale che abbracci l’intera catena del valore dell’AI, dalla progettazione degli algoritmi all’infrastruttura hardware, fino all’adozione di pratiche sostenibili a livello aziendale e industriale. A detta della stessa intelligenza artificiale si tratta di una sfida complessa che richiede sforzi concentrati a tutti i livelli dell’ecosistema tecnologico.

Fra le strategie suggerite, moltissime sono di carattere tecnico: l’ottimizzazione degli algoritmi; l’utilizzo di tecniche per la compressione dei modelli, di “potatura” e di quantizzazione per ridurre le dimensioni dei modelli e il numero di operazioni necessarie per l’addestramento e l’inferenza; la formazione federata al fine di minimizzare il consumo di energia associato alla trasmissione di dati; lo sviluppo e l’utilizzo di hardware specializzati (come i processori neuromorfici o le unità di elaborazione tensoriale) capaci di massimizzare l’efficienza energetica; spostare una parte delle operazioni ai dispositivi periferici, così da ridurre la dipendenza dai data center centrali. 

Altre strategie suggerite puntano sull’energia verde: l’utilizzo di fonti energia rinnovabile per alimentare i data center e le infrastrutture di calcolo; la stipula di contratti a lungo termine per l’acquisto di energia verde direttamente dai produttori, garantendo così una fornitura costante e sostenibile. O sulla gestione intelligente dell’energia: implementando per esempio software avanzati per la gestione dell’energia nei data center, capaci di ottimizzare l’uso delle risorse in tempo reale basandosi sulla domanda di carico; o ancora utilizzando la virtualizzazione e il cloud computing per consolidare i carichi di lavoro su un numero minore di macchine fisiche. 
ChatGPT suggerisce, oltre che di investire su innovazione e ricerca, di sostenere l’introduzione di normative che incentivino l’uso di tecnologie energeticamente efficienti e l’adozione di pratiche sostenibili nel settore dell’AI, ma anche di spingere affinché siano gli stessi sviluppatori e gli stessi ingeneri a portare avanti pratiche di programmazione sostenibile e di efficienza energetica dell’intelligenza artificiale.

Leggi gli altri articoli
Leggi articolo
News
28 Mag 2024

Gli alberi raccontati ai bambini

Leggi articolo
Sostenibilità
6 Nov 2023

Ecosistema Urbano 2023: le città italiane più sostenibil

Leggi articolo
Eventi
2 Mag 2019

Il fondatore di Itlas speaker al Salon di TEDxTreviso sull’economia circolare

To top
contattaci
Scrivici su Whatsapp