IL CONSUMO ENERGETICO DELL’AI È FUORI CONTROLLO da WIRED
Il consumo energetico dell’AI è fuori controllo
Gli strumenti di intelligenza artificiale generativa sono ormai parte della nostra vita quotidiana online, ma il prezzo in termini di stress sulle reti elettriche e impatto idrico è sempre più salato
In questo momento è impossibile non imbattersi nell’intelligenza artificiale online. Negli Stati Uniti, un riassunto generato dall’AI può apparire casualmente in cima ai risultati di una ricerca su Google. Ma può anche capitare che Meta vi inviti a provare la sua AI mentre siete su Facebook, per non parlare di quell’onnipresente emoji delle stelline che continua a perseguitarci.
Questa corsa ad aggiungere l’intelligenza artificiale al maggior numero possibile di interazioni online può essere fatta risalire al lancio di ChatGPT da parte di OpenAI alla fine del 2022. Per la Silicon Valley l’intelligenza artificiale generativa è presto diventata un’ossessione e, quasi due anni dopo, gli strumenti di AI alimentati da modelli linguistici di grandi dimensioni permeano l’esperienza di qualsiasi utente online.
L’epoca dell’iperconsumo
Uno sfortunato effetto collaterale di questa proliferazione è rappresentato dal fatto che i processi informatici necessari per sostenere i sistemi di AI generativa richiedono molte più risorse. Su internet siamo entrati nell’era dell’iperconsumo, un periodo definito dalla diffusione di un nuovo tipo di sistemi informatici che richiedono quantità eccessive di elettricità e acqua per essere costruiti e poter funzionare.
“Gli algoritmi che sostengono qualsiasi modello di intelligenza artificiale generativa sono fondamentalmente molto, molto diversi da quelli tradizionali che si usano per la ricerca su Google o per le email – afferma Sajjad Moazeni, ricercatore dell’Università di Washington –. I servizi di base erano molto leggeri dal punto di vista della quantità di dati che dovevano fare avanti e indietro tra i processori“. Per fare un raffronto, Moazeni stima che dal punto di vista computazionale le applicazioni di AI generativa siano da 100 a 1000 volte più esigenti.
L’enorme fabbisogno energetico per l’addestramento e l’implementazione della tecnologia è ormai di dominio pubblico, da quando l’anno scorso un esperto dopo l’altro ha previsto un aumento della domanda di energia da parte dei data center in cui le aziende lavorano alle applicazioni di AI. Nemmeno a farlo apposta, Google ha recentemente smesso di considerarsi neutrale dal punto di vista delle emissioni di anidride carbonica e Microsoft potrebbe accantonare i suoi obiettivi di sostenibilità a favore della corsa alla costruzione di tool più grandi e performanti.
“L’impronta di CO2 e il consumo di energia andranno di pari passo con la potenza di calcolo, perché fondamentalmente questi data center vengono alimentati in modo proporzionale alla quantità di calcoli effettuati“, afferma Junchen Jiang, ricercatore dell’Università di Chicago. In sostanza, più un modello di intelligenza artificiale è grande, più avrà bisogno di potenza di calcolo. E i nuovi modelli di frontiera stanno diventando giganteschi.
Anche se il consumo totale di energia di Google è raddoppiato dal 2019 al 2023, Corina Standiford, portavoce dell’azienda, ha dichiarato che non sarebbe corretto affermare che le esigenze energetiche di Big G hanno avuto un’impennata durante la corsa all’AI: “È estremamente impegnativo ridurre le emissioni dei nostri fornitori, che costituiscono il 75% della nostra impronta di CO2“, ha dichiarato in un’email a Wired US. Tra i fornitori a cui fa riferimento l’azienda ci sono i produttori di server, apparecchiature di rete e altre infrastrutture tecniche per i data center: un processo ad alta intensità energetica necessario per creare le parti fisiche necessarie allo sviluppo dei nuovi modelli di AI.
Nonostante il trend sia in aumento, il fabbisogno energetico dei data center rappresenta ancora una piccola percentuale della quantità di energia utilizzata complessivamente dagli esseri umani. Fengqi You, ricercatore dell’università Cornell, sottolinea per esempio che raffinerie di petrolio, edifici e trasporti continuano ad avere un impatto maggiore: “Questi settori consumano molta più energia rispetto ai centri dati per l’AI“, afferma. Ciò detto, l’impronta energetica del settore potrebbe continuare a crescere nel prossimo futuro, man mano che gli strumenti di genAI verranno integrati in più angoli di internet e adottati da un numero maggiore di utenti online.
Acqua da tutte le parti
Oltre alla grande quantità di energia, i centri dati che addestrano e gestiscono i modelli di AI generativa consumano milioni di litri d’acqua.
“L’acqua disponibile per l’uso umano è molto limitata. Si tratta solo di acqua dolce di superficie e di acque sotterranee. Questi centri dati non fanno altro che farla evaporare“, afferma Shaolei Ren, ricercatore della UC Riverside e coautore di uno studio sull’impronta idrica dell’AI.
Anche se all’inizio può sembrare simile, l’impatto sull’ambiente delle aziende che gestiscono data center enormi non è paragonabile a quello dei cittadini che magari si fanno più volte il bagno al posto della doccia o lasciano il rubinetto aperto mentre si lavano i denti: “Sono diversi dai normali utenti. Quando prendiamo l’acqua dal servizio pubblico e la scarichiamo immediatamente nelle fognature, stiamo solo prelevando acqua, non la stiamo consumando – spiega Ren –. Un data center prende l’acqua da un servizio pubblico e la fa evaporare nell’atmosfera”. L’acqua consumata dai data center potrebbe metterci fino a un anno prima di tornare sulla superficie terrestre, aggiunge il ricercatore.
Alistair Speirs, direttore senior dell’infrastruttura globale Azure di Microsoft, afferma in un’email che l’intelligenza artificiale sta contribuendo alla crescita dei data center e sottolinea come anche il passaggio al cloud computing sia un fattore importante da tenere in considerazione: “Si può creare l’impressione che la crescita sia molto veloce, quando in realtà in gran parte si tratta di rimpiazzare gli hardware che prima si gestivano in loco“, spiega, aggiungendo dice che entro la fine del decennio Microsoft punta a raggiungere l’obiettivo di diventare carbon negative (eliminare più emissioni di quante ne produca) water positive (ripristinare risorse idriche) e minimizzare i rifiuti (zero waste).
Anche Fengqi You, il ricercatore della Cornell, sottolinea l’importanza di proseguire la transizione verso le fonti di energia rinnovabile, anche se dubita dell’efficacia degli sforzi di sostenibilità delle aziende che si affidano ai piani di compensazione delle emissioni di CO2: “La compensazione è una soluzione temporanea, che è meglio di niente, ma non è sicuramente una soluzione definitiva“, afferma. Ren la pensa allo stesso modo sulle iniziative per il ripristino delle risorse idriche: sono meglio rispetto a non fare nulla, ma rimangono una misura insufficiente. Il ricercatore sostiene che si dovrebbe prestare maggiore attenzione all’impronta idrica della catena di approvvigionamento delle grandi aziende, oltre che al loro consumo diretto.
Naturalmente, Google e Microsoft non sono gli unici grandi contendenti nella corsa all’intelligenza artificiale. Contattata via email, la portavoce di Meta Melanie Roe ha chiesto ulteriori informazioni su questo articolo, ma non ha poi risposto ai successivi messaggi di Wired US. Anche OpenAI non ha risposto alle richieste di commento.
Rompicapo energetico
Le aziende tecnologiche spesso presentano lo sviluppo dell’AI anche come parte della soluzione all’emergenza climatica, invece che un problema per l’ambiente. Nel tentativo di ridurre l’impatto immediato dell’AI e i suoi costi, ricercatori e sviluppatori stanno studiando approcci nuovi per ridurre l’energia necessaria a creare i loro strumenti affidandosi a chip più efficienti, oltre a sperimentare modelli più piccoli che richiedono meno calcoli.
Al di là delle preoccupazioni ambientali, i data center rischiano anche sovraccaricare le reti elettriche locali: “Nello stato di Washington, a Quincy, c’è un data center di Microsoft – racconta Moazeni –. So che ci sono molti timori che stiano risucchiando tutta l’energia della zona”. In tutto il mondo, le server farm che addestrano e alimentano i modelli di intelligenza artificiale possono entrare in competizione con i residenti e le aziende locali per l’energia, causando blackout quando ci sono picchi nella domanda. Bobby Hollis, vicepresidente per l’energia di Microsoft, ha dichiarato in un’email a Wired US che il colosso collabora con le autorità e le società pubbliche per evitare di pesare sui servizi locali, oltre a costruire infrastrutture di supporto per evitare qualsiasi disagio nei servizi per i cittadini.
Gli utenti che guardano con un occhio critico al proprio consumo energetico potrebbero trovarsi in difficoltà. Anche se non si cercano attivamente, può essere difficile sfuggire agli strumenti AI, considerando che ormai vengono inclusi come funzioni predefinite nei sistemi operativi, nelle applicazioni web e nei software che usiamo tutti i giorni. Che si acceda a un portale online per lavorare o che si utilizzi internet solo per connettersi con gli amici, è quasi impossibile non imbattersi nei chatbot che offrono sintesi delle informazioni e promettono di aumentare la produttività.
Se da una parte l’intelligenza artificiale è già onnipresente e continuerà a insinuarsi in un numero sempre maggiore di attività online, insomma, resta ancora da capire quando il settore raggiungerà il picco in termini di consumo energetico.
No Comments