Le iniziative di sostenibilità stanno trovando sempre più diffusione nei data center, ma molti CIO che investono e implementano tecnologie all’avanguardia in ambito green non sono nemmeno consapevoli che stanno intraprendendo azioni per il clima. Stanno solo cercando di migliorare i profitti. Ciò mette i leader IT in una posizione invidiabile. Nella maggior parte degli ambiti aziendali, il processo decisionale ESG richiede infatti di far quadrare i potenziali benefici climatici con le spese aggiuntive e l’incertezza sui materiali e processi di prossima generazione.

Ma i responsabili delle decisioni IT hanno l’opportunità di aggirare questo problema nei data center, che sono responsabili di circa il 2% delle emissioni di gas serra degli Stati Uniti. Le innovazioni emergenti stanno contribuendo a convertire questi enormi complessi di server ad alta intensità di risorse in un fronte privo di compromessi nella guerra della sostenibilità, dove le riduzioni delle emissioni di carbonio spesso vanno di pari passo con costi inferiori.

Si tratta, per di più, di un fronte degno di investimenti. L’energia, infatti, è già la spesa più significativa quando si parla di data center. E il desiderio apparentemente insaziabile di raccogliere più informazioni da più dati sta portando a implementazioni sempre più dense di rack pieni di CPU e GPU affamate di energia. A peggiorare le cose, i data center stanno raggiungendo il punto in cui l’energia necessaria per raffreddare questi rack pieni di server sta aumentando a un ritmo al limite della sostenibilità.

Secondo alcune stime, fino al 40% del budget energetico di un data center è ora dedicato al raffreddamento. Per cercare di invertire la tendenza, molti gestori di strutture hanno optato per il raffreddamento evaporativo. Ciò può aiutare a ridurre le richieste di elettricità dalle unità HVAC e dalle ventole, ma di contro richiede enormi quantità di acqua (circa 661 milioni di litri all’anno nei soli Stati Uniti). Si tratta quindi di una strategia che di sostenibile ha davvero poco ed è per questo che i CIO attenti ai costi e alla sostenibilità stanno guardando oltre il raffreddamento evaporativo.

“Il modo in cui abbiamo raffreddato i data center dovrà cambiare” ha dichiarato Scott Tease, Vice President e General Manager of HPC and AI di Lenovo. “Il raffreddamento ad aria tradizionale non riesce a tenere il passo. E non abbiamo più l’acqua per fornire le enormi quantità richieste dal raffreddamento evaporativo. È un grande, grande problema”.

Sempre più aziende riconoscono che ridurre l’utilizzo di acqua nei data center stia diventando urgente quanto ridurre il consumo di combustibili fossili. Non a caso AWSil più grande fornitore di servizi cloud del mondo, all’evento re:Invent di fine novembre si è impegnato a essere “water positive” entro il 2030 e ciò significa che restituirà più acqua alle comunità e all’ambiente di quella che utilizza nei suoi data center. Inoltre, la società ha ribadito il suo impegno ad alimentare il 100% delle operazioni con energia rinnovabile entro il 2030. Durante il keynote di apertura dell’evento, i partecipanti hanno applaudito quando il CEO Adam Selipsky ha annunciato che AWS è già all’85% di questo percorso verso la sostenibilità.

IA per ridurre al minimo il costo dell’IA

Come per la maggior parte degli upgrade dei data center, le opzioni di efficienza energetica sono molto più varie e abbondanti se si parte da zero con una nuova struttura, sia che si tratti di on-premise o nel cloud. Detto questo, i CIO hanno diverse opzioni per ridurre le emissioni di carbonio e i costi energetici.

sostenibilità

Ironia della sorte, un modo sempre più popolare ed efficace per invertire l’impatto della proliferazione dell’intelligenza artificiale e del machine learning sulla domanda di energia dei data center è con più IA e ML, ovvero software e servizi per aiutare l’IT a ottimizzare lo storage e i carichi di lavoro tra le risorse esistenti per garantire distribuzioni più convenienti e rispettose del clima.

Anthony Behan, Managing Director delle attività di telecomunicazioni, media e intrattenimento di Cloudera, ha affermato che la transizione al 5G ad alta potenza ha portato i suoi clienti a ridurre al minimo dei trasferimenti di dati per favorire il risparmio energetico e, di conseguenza, i costi, spingendo i carichi di lavoro dei dati più vicino a dove i dati vengono raccolti e archiviati. 

Raffreddamento a liquido

I responsabili delle decisioni IT possono ridurre notevolmente le richieste di energia con il raffreddamento a liquido, che sta rapidamente aumentando come alternativa principale. È infatti molto più efficiente del raffreddamento ad aria e persino del raffreddamento evaporativo, tanto che i fornitori affermano di poter risparmiare fino al 40% sulla bolletta energetica per il raffreddamento e di poter implementare server e rack a densità molto più elevata.

Questa tecnologia è stata utilizzata per raffreddare i supercomputer per anni. Solo di recente ha iniziato a diffondersi capillarmente anche nei data center “tradizionali”. I fornitori offrono ora implementazioni di raffreddamento a liquido per rack, server e persino singoli componenti. Nvidia, ad esempio, ha annunciato l’intenzione di iniziare a offrire GPU raffreddate a liquido questo inverno.

Anche Intel ha lavorato per diversi anni con lo scopo di contribuire a garantire opzioni di raffreddamento a liquido praticabili per il data center. Nel 2019, ad esempio, ha collaborato con Lenovo per unire la tecnologia di raffreddamento a liquido Lenovo Neptune e la piattaforma di infrastruttura TruScale con i server basati su piattaforma Xeon Scalable per applicazioni HPC e IA. Più recentemente, Intel ha annunciato su questo versante progetti con altri fornitori tra cui Submer e Green Revolution Computing, nonché un investimento di 700 milioni di dollari in un impianto di ricerca e sviluppo di raffreddamento a liquido in Oregon.

Partire da zero

I CIO che stanno cercando di implementare un nuovo sito on-premise, con un provider di colocation o un fornitore di cloud, possono trovare opportunità per riutilizzare il calore diffuso dalle implementazioni di raffreddamento a liquido. Cloud&Heat, ad esempio, offre data center autonomi in grado di riscaldare gli edifici vicini in inverno. Se state cercando altre applicazioni a calore diffuso, potete vedere cosa stanno facendo altri fornitori a livello globale su questa mappa.

Uno dei siti sulla mappa è una struttura di colocation di Montreal sviluppata da QScale, una startup che offre strutture di data center ad alta densità. La prima fase, che dovrebbe entrare in funzione all’inizio del 2023, risponde ad alcuni dei requisiti fondamentali di sostenibilità. Il sito infatti è situato in una zona climatica che richiede molto meno raffreddamento ed è alimentato quasi interamente da energia rinnovabile; fornisce inoltre calore a quella che potrebbe essere definita una colocation agricola, ovvero un complesso di serre costruite per coltivare frutta e verdura durante l’inverno.

“Siamo tutti abituati a pensare alla sostenibilità come a una strategia costosa” ha dichiarato Martin Bouchard, co-fondatore e CEO di QScale. “In realtà non siamo affatto più costosi di un data center vecchio stampo. In questo modo è possibile avere una produzione di carbonio sostenibile e pulita ed essere super-efficienti allo stesso tempo”. Questa dovrebbe essere musica per le orecchie dei CIO, indipendentemente dal fatto che stiano lavorando per rendere i loro data center più sostenibili o più semplicemente per tagliare i costi.