Il mondo dei data center sta attraversando una trasformazione radicale, spinta dall’avvento dell’intelligenza artificiale e dalle sue esigenze computazionali senza precedenti. Nel corso di due giornate di incontri con associazioni europee, media e progettisti presso la sede di Vertiv a Tognana, vicino a Padova, sono emersi i contorni di questa rivoluzione tecnologica che sta ridefinendo non solo le architetture hardware, ma l’intero concetto di infrastruttura digitale.

Il primo cambiamento significativo riguarda la natura stessa di queste strutture. “Non parliamo più di data center tradizionali, ma di AI Factory”, spiega Andrea Faeti, Sales Director Enterprise Accounts per l’Italia di Vertiv. La differenza non è solo terminologica: mentre i data center classici ospitavano apparati IT che eseguivano funzioni diverse, come cloud, hosting e colocation, le AI Factory sono strutture verticali dedicate a un unico scopo specifico.

Queste nuove infrastrutture funzionano come un unico gigantesco calcolatore: ricevono energia e dati in ingresso, producono risultati elaborati in uscita. Il paradigma è quello della “unit of compute”, un sistema integrato dove ogni componente è ottimizzato per massimizzare l’efficienza computazionale dell’intelligenza artificiale.

Oggi, negli Stati Uniti il deployment di queste architetture è già in fase avanzata su scala massiva. In Europa e in Italia siamo in fase di progettazione e pianificazione, con tempistiche che però si prevedono molto più rapide rispetto alle precedenti ondate tecnologiche, spinte anche dalle iniziative e i finanziamenti dell’Unione Europea, con il suo progetto di AI Factory e Giga Factory.

Percezione pubblica ed efficienza

Andrea Faeti, Sales Director Enterprise Accounts per l'Italia di Vertiv

Andrea Faeti, Sales Director Enterprise Accounts per l’Italia di Vertiv

Un tema centrale emerso durante gli incontri riguarda la percezione dei data center nell’opinione pubblica. Il dibattito tende spesso a enfatizzare solo gli aspetti negativi: consumo energetico, rumore, consumo di acqua e impatto ambientale. La realtà è più sfumata. I data center rappresentano oggi circa il 3% del consumo energetico complessivo, a fronte del 35-40% delle strutture residenziali e di percentuali significative delle industrie tradizionali.

Il confronto con altri settori industriali rivela un quadro diverso, dice Faeti: “un data center a poche centinaia di metri non produce inquinamento diretto, a differenza di acciaierie o stabilimenti chimici. L’unico potenziale disturbo è il rumore delle ventole di raffreddamento”.

Se il problema è di comunicazione, si cerca quindi di intervenire sul linguaggio usato. Come sottolineato dall’associazione norvegese, occorre smettere di parlare di “consumo” energetico e iniziare a ragionare in termini di “trasformazione” dell’energia. Il calore generato dai data center può essere recuperato e riutilizzato, per esempio attraverso sistemi di teleriscaldamento urbano.

In Italia esistono già alcuni casi concreti, prevalentemente promossi da operatori che gestiscono sia data center sia reti di teleriscaldamento, come nelle città di Brescia e Milano. L’incontro tra la necessità di posizionamento geografico dei data center e la disponibilità di infrastrutture di teleriscaldamento rimane una sfida, ma le opportunità sono evidenti e in crescita.

La sfida dell’efficienza energetica

L’efficienza energetica rappresenta il nodo cruciale dell’evoluzione tecnologica. Se da un lato le AI Factory sono per definizione strutture ad alto consumo energetico, dall’altro gli ultimi anni hanno portato miglioramenti straordinari in termini di efficienza computazionale.

I dati presentati da Nvidia sono emblematici: il costo energetico per elaborare un token su ChatGPT è diminuito di un fattore 10.000 rispetto a cinque anni fa. Operazioni che richiedevano ettari di mainframe tradizionali e ore di elaborazione, oggi vengono eseguite da pochi rack di sistemi GPU in tempi infinitesimali.

Il costo energetico per elaborare un token su ChatGPT è diminuito di un fattore 10.000 rispetto a cinque anni fa

Il salto tecnologico ha richiesto però un ripensamento radicale delle infrastrutture di raffreddamento. I sistemi di liquid cooling sono diventati essenziali per gestire le nuove densità energetiche. Se un data center tradizionale operava con 5-10 kilowatt per rack, i sistemi Nvidia GB200 e GB300 di ultima generazione raggiungono già 100-150 kilowatt per rack. La roadmap di Nvidia prevede che entro un paio d’anni si possa arrivare a 600 kilowatt per rack.

Questa evoluzione ha reso obsoleti i tradizionali sistemi di raffreddamento ad aria. Il liquid cooling non è più un’opzione sperimentale, ma una necessità tecnica. Vertiv ha recentemente annunciato di voler acquisire PurgeRite, una società statunitense specializzata nella manutenzione di questi sistemi, riconoscendo che le competenze necessarie per gestirli rappresentano un asset strategico che andava sviluppato rapidamente, anche attraverso acquisizioni mirate.

Verso l’alimentazione a 800 volt in corrente continua

Un’altra rivoluzione in corso riguarda l’alimentazione elettrica dei rack. Il passaggio agli 800 volt in corrente continua rappresenta una risposta tecnica all’aumento esponenziale delle densità energetiche. Lavorare a 400-480 volt in corrente alternata, come nei sistemi tradizionali, diventa problematico quando si devono gestire carichi così elevati.

Il progetto, sviluppato in collaborazione con Nvidia, è ancora in fase di sperimentazione ma con prospettive concrete di implementazione nei prossimi anni. La transizione comporta sfide significative, sia dal punto di vista della sicurezza sia da quello normativo. Tensioni di questo tipo richiedono una segregazione fisica rigorosa e l’impiego di personale specializzato con abilitazioni specifiche.

Anche per questi motivi, è possibile che un primo passaggio verrà fatto con tensioni a 400 V, scelta che cambia le implicazioni dal punto di vista normativo e operativo. Quello che appare certo è che questa evoluzione sarà dedicata alle architetture di altissime performance che vedremo nei prossimi anni, non una soluzione universale per tutti i data center.

La velocità come imperativo

La rapidità di evoluzione tecnologica pone una sfida in sé. Le generazioni di server si susseguono con tempi sempre più compressi. Se prima il ciclo di vita di una generazione hardware era di tre anni, oggi questo tempo si accorcia. “Chi investe oggi in sistemi GB200 sa che tra due anni saranno disponibili architetture molto più potenti – dice Faeti – per cui bisogna velocizzare al massimo i tempi di deployment. Non è più accettabile impiegare un anno per realizzare un data center. La risposta tecnologica è duplice: progettazione supportata da intelligenza artificiale e approccio ibrido-modulare alla costruzione.

I digital twin, ovvero le simulazioni complete del data center basate su AI, permettono di modellare il funzionamento dell’intera struttura prima della costruzione fisica, riducendo drasticamente il rischio di sorprese e ritardi. Vertiv sta utilizzando Omniverse di Nvidia proprio per questo tipo di simulazioni.

Finito il progetto “in virtuale”, per velocizzare poi l’installazione si adotta l’approccio modulare, nel quale i singoli blocchi vengono costruiti e testati in fabbrica e vengono consegnati pronti per l’assemblaggio finale.

“Tecnologie come lo SmartRun di Vertiv incarnano questa filosofia: invece di cablare manualmente tubi e cavi, si posizionano strutture prefabbricate sopra i rack, dove tutto è già integrato. Il data center diventa un’operazione di assemblaggio più che di costruzione tradizionale”, dice Faeti.

Vertiv SmartRun impianti

Vertiv SmartRun estende il concetto di modularità dei data center anche ai cablaggi e agli impianti di raffreddamento, con condotte preassemblate in fabbrica.

Progetti concreti e prospettive

Il panorama europeo e italiano mostra già progetti in fase esecutiva. Digital Realty sta realizzando con le soluzioni Vertiv un nuovo campus a Roma, dove gli scavi sono già iniziati, con completamento previsto entro il 2026.

La visione strategica che emerge è chiara: grandi strutture centralizzate per compiti specifici come l’addestramento di modelli verticali per industria, affiancate da implementazioni più piccole on-premise presso le aziende per gestire inferenze e dati sensibili. Non una sola soluzione, ma un ecosistema differenziato che risponde a esigenze diverse, dalla ricerca di base alle applicazioni industriali specifiche.