Se l’intelligenza artificiale continuerà a diventare sempre più potente senza che al tempo stessi aumenti l’efficienza energetica, i data center potrebbero consumare quantità estreme di energia. Lo sostiene in un articolo pubblicato sul The Wall Street Journal Rene Haas, CEO di ARM, secondo le cui stime il settore arriverà a utilizzare il 20-25% della rete elettrica statunitense entro il 2030 (rispetto al 4% attuale).

La colpa è in particolare dei modelli linguistici di grandi dimensioni (LLM) come GPT, che Haas ha descritto come “insaziabili” in termini di consumi energetici. Il CEO di ARM non è però il solo a fare previsioni simili. Il rapporto Electricity 2024 dell’Agenzia Internazionale dell’Energia (AIE) prevede infatti che il consumo di energia per i data center di IA in tutto il mondo sarà dieci volte superiore a quello del 2022. Parte del problema è che i LLM come GPT richiedono molta più energia dei tradizionali motori di ricerca come Google (l’AIE stima che una richiesta a ChatGPT consumi quasi dieci volte più energia di una ricerca su Google).

microsoft openai data center

Secondo lo studio inoltre, se Google dovesse basare il suo motore di ricerca interamente su software e hardware IA, aumenterebbe il suo consumo di energia di dieci volte, richiedendo 10 terawattora (TWh) di elettricità in più all’anno. Ecco perché secondo l’AIE è necessaria una regolamentazione governativa per tenere sotto controllo il consumo energetico dei data center (AI o altro).

Regolamentazione che dovrebbe essere anche decisa in tempi rapidi, considerando che già ora in alcuni Paesi ci si sta ponendo questo problema; in Irlanda, ad esempio, i server di Amazon Web Service sembrano essere ostacolati proprio da limitazioni di potenza. Come possibile soluzione, Haas propone l’aumento dell’efficienza, dal momento che è difficile immaginare che i data center riducano l’energia compromettendo le prestazioni. Anche se l’hardware per l’intelligenza artificiale e gli LLM diventassero più efficienti, non significa però che il consumo di elettricità diminuirà, visto che l’energia risparmiata potrebbe essere utilizzata per espandere la capacità di calcolo, mantenendo invariato il consumo di energia.

L’aumento della capacità e il ricorso al nucleare come fonte energetica pulita sono altre strade perseguibili come dimostrato da Amazon, che ha recentemente acquistato un data center alimentato a energia nucleare in Pennsylvania, anche se quello dei consumi energetici per l’IA è destinato comunque a rimanere un problema di primaria importanza.