Server Intelligenza Artificiale

Con il crescente sviluppo delle intelligenze artificiali generative, come ChatGPT e Google AI Overviews, emerge una questione critica: l’enorme consumo di energia necessario per il loro funzionamento. Dietro la capacità di questi strumenti di rispondere alle domande degli utenti ci sono infatti data center che richiedono quantità significative di elettricità, spesso proveniente da combustibili fossili.

Ad esempio, uno studio condotto dal ricercatore Alex de Vries ha rilevato che ogni volta che Google genera una risposta tramite AI Overviews, consuma circa tre wattora, l’equivalente dell’energia necessaria per una telefonata di un’ora da un telefono fisso o dieci volte superiore a quella richiesta per una ricerca tradizionale su Google.

Le AI generative, però, non consumano energia solo durante l’uso da parte degli utenti. L’addestramento dei modelli linguistici di grandi dimensioni (LLM), come GPT-3 di OpenAI, richiede anch’esso notevoli risorse energetiche. Secondo il sito The Verge, per “allenare” GPT-3 sono stati necessari poco meno di 1300 megawattora di energia elettrica, «all’incirca quanta ne consumano annualmente 130 case statunitensi» o l’equivalente di 1,625 milioni di ore di visione su Netflix.

La situazione è ancora più complessa quando si tratta di generare immagini e video attraverso l’intelligenza artificiale. Secondo uno studio della Carnegie Mellon University e dell’azienda di AI Hugging Face, la produzione di una singola immagine da parte di un’AI consuma l’energia sufficiente a caricare uno smartphone.

Tutto questo ha un impatto significativo sulle reti elettriche globali. In Virginia, ad esempio, lo stato che ospita decine di data center essenziali per il funzionamento della rete internet, il settore assorbe ormai un quinto dell’energia consumata. Il responsabile di DataBank, James Mathes, ha sottolineato che «è questo il problema dell’intelligenza artificiale: ha bisogno di un sacco di energia, e non appena ce l’hai serve subito».

La crescita della domanda di energia da parte dei data center sta superando l’offerta in molte parti del mondo, con previsioni di aumenti significativi del consumo elettrico in paesi come la Svezia, il Regno Unito e gli Stati Uniti. Goldman Sachs ha descritto questo fenomeno come «un tipo di aumento di richiesta di energia elettrica che non si vedeva da una generazione».

Le aziende tecnologiche sono consapevoli del problema e stanno cercando soluzioni. Google, ad esempio, ha pianificato di alimentare i suoi data center con energia rinnovabile entro il 2030, ma lo sviluppo di nuovi servizi AI potrebbe rendere difficile raggiungere questi obiettivi. Alcune delle aziende più piccole e meno conosciute del settore, nate sull’onda del successo delle AI generative, mostrano un approccio meno attento alla sostenibilità, continuando a fare affidamento sui combustibili fossili.

Il Washington Post ha evidenziato come le promesse delle aziende di acquistare energia pulita siano spesso paragonate al «gioco dei tre bicchieri», poiché «le aziende stanno operando sulla stessa rete elettrica di tutti gli altri, mentre si attribuiscono gran parte della quantità finita di energia pulita». Ciò costringe i fornitori di servizi energetici a ricorrere a fonti di energia meno sostenibili per soddisfare la domanda collettiva.

Alcune aziende, come OpenAI e Microsoft, stanno esplorando soluzioni radicali per affrontare il problema energetico. Nel 2018, Sam Altman, cofondatore di OpenAI, ha investito 375 milioni di dollari in Helion Energy, una startup che mira a costruire un impianto a fusione nucleare entro il 2028. Altman ritiene che «se riusciamo ad abbassare il costo dell’intelligenza artificiale e quello dell’energia di molto, la qualità della vita di tutti noi aumenterà incredibilmente». Tuttavia, gli esperti rimangono scettici sulle tempistiche e sulle possibilità concrete di successo di questa tecnologia.


Leggi le notizie di Piazza Borsa

Per restare sempre aggiornato, segui i nostri canali social FacebookTwitter e LinkedIn