Non immaginate quanta energia consuma l'intelligenza artificiale. ARM fa un po' di conti

Vi siete mai chiesti quanta energia consumano i modelli generativi e le moderne applicazioni di intelligenza artificiale? Il CEO di ARM, Rene Has, invita tutti a una riflessione per non trovarsi in difficoltà tra qualche anno. Basti pensare che una richiesta a ChatGPT richiede 10 volte l'energia necessaria per una query su Google.

I modelli generativi e le applicazioni di intelligenza artificiale sono destinati a far aumentare in maniera esponenziali i consumi di energia elettrica. Tanto più che l’utilizzo di questi strumenti sta divenendo sempre più diffuso e radicato in molteplici settori dell’industria e del mondo lavorativo in generale.

Rene Has, CEO di ARM, si aggiunge al coro di chi desidera mettere in guardia dall’insaziabile fame di elettricità dell’IA. L’adozione, a tutti i livelli, dei moderni modelli basati sull’intelligenza artificiale generativa non può ignorare il tema della sostenibilità ambientale.

Quali sono i consumi dell’intelligenza artificiale e dei modelli generativi

L’Agenzia internazionale dell’energia (AIE) ha recentemente pubblicato (gennaio 2024) un interessante report dal quale emerge come ogni singola richiesta inviata a ChatGPT consumi all’incirca 2,9 wattora, un valore in termini di consumo energetico che è pari a 10 volte quello richiesto per una ricerca standard con il motore di Google. Per “ricerca standard”, AIE si riferisce al tradizionale invio di una query sul motore di ricerca dell’azienda di Mountain View, senza la cooperazione di alcuno strumento basato sull’intelligenza artificiale.

Se Google stessa cambiasse la sua “spina dorsale” sostituendo gli algoritmi sin qui utilizzati dal suo motore di ricerca con le nuove query basate su modelli generativi, il consumo energetico potrebbe schizzare a 11 terawattora l’anno dall’attuale 1 terawattora. 2,9 wattora equivalgono al mantenere accesa una lampadina da 60 wattora per poco meno di tre minuti.

Ancora, AIE osserva che il passaggio a modelli ancora più potenti, studiati per sostenere il funzionamento delle future AGI (Artificial General Intelligence), potrebbe ulteriormente complicare il quadro in termini di impatto energetico.

Altri numeri sono impietosi: secondo le stime elaborate da Factorial Funds, il nuovo modello OpenAI Sora impiegherebbe la potenza di calcolo equivalente ad almeno una GPU NVidia H100 per un’ora al fine di generare un video da 5 minuti.

Il modello generativo Grok 3 di xAI (Elon Musk) avrebbe richiesto 100.000 schede NVidia H100 per l’attività di addestramento; con una singola H100 capace di consumare 3.740 kilowattora l’anno.

È necessario un cambio di passo per ridurre i consumi energetici dell’IA all’aumentare della domanda

Has osserva che senza un intervento del legislatore e senza apportare significativi miglioramenti sul piano dell’efficienza energetica, la tendenza innescatasi sarà impossibile da sostenere.

Sempre secondo AIE, gli USA hanno generato nel 2022 un totale di 4.240 terawattora di energia elettrica, il 22% della quale proveniente da fonti rinnovabili. Il consumo complessivo annuo si attesta invece sui 3.900 terawattora. In Europa la produzione energetica si attesta (anno 2022) sui 2.800 terawattora, con 1.400 terawattora provenienti dalle rinnovabili.

Andando avanti di questo passo, le soluzioni di IA potrebbero arrivare a consumare anche il 25% dell’energia prodotta entro il 2030, dice Has. Ovvio che è necessario un deciso cambio di rotta.

Il passo più logico è, ovviamente, quello di aumentare la produzione di energia rinnovabile: il circolo virtuoso deve essere promosso a livello centrale, di singolo Paese e in ciascuna azienda.

Questi sforzi, però, non basteranno e come spiega Oracle per sviluppare IA sostenibili è necessario abbandonare la strada dei modelli generativi di più grandi dimensioni, concentrandosi invece su soluzioni più compatte ed efficaci per le specifiche esigenze.

La fase di inferenza è computazionalmente molto meno esigente rispetto all’addestramento del modello. Ma, d’altra parte, la somma dei numeri fa il totale quando un numero di istanze dello stesso modello è contemporaneamente utilizzato in molteplici realtà.

Il processo con cui il modello trae delle conclusioni o prende decisioni basandosi sui dati di input forniti si chiama appunto inferenza. Nella scienza dei dati e nell’intelligenza artificiale, la fase di inferenza quella finale che coinvolge l’utilizzo di un modello già addestrato.

Credit immagine in apertura: iStock.com – BlackJack3D

Ti consigliamo anche

Link copiato negli appunti