Data center: caratteristiche, tendenze e best practice nel 2025

Tendenze, best-practice, normative e certificazioni: tutto quel che bisogna sapere su dove sta andando il data center nell’era dell’intelligenza artificiale

La tecnologia, per essere disponibile, deve mapparsi sul business con agilità. Questa semplice affermazione vale anche per l’ICT, che descrive le necessità di trasformazione digitale dei dati. Le relative operazioni vengono svolte nel data center, e le richieste del mercato variano costantemente con il tempo.

Le principali tendenze del 2025 sono dominate dalla crescita esplosiva dei data center ottimizzati per l’intelligenza artificiale, dalla diffusione del raffreddamento a liquido come standard per i carichi ad alta densità, dall’affermazione dei data center modulari e dalla continua evoluzione verso architetture ibride e multi-cloud. La densità di potenza per rack, un tempo limitata a 10-15 kW, supera oggi i 100 kW negli ambienti AI, ridefinendo completamente le esigenze infrastrutturali.

Evoluzione del data center

Classicamente le componenti ICT venivano assemblate in unità di medie dimensioni dette armadi, ciascuna con tre sottosistemi, uno per ciascuna componente (hardware, storage, connettività). Ciascuna unità era dedicata a un compito o un’applicazione specifica (come ERP, CRM, Email e singole applicazioni di business).

Questo tipo di architettura aveva diversi svantaggi:

  • Per poter sopportare i carichi di picco e gli sviluppi futuri, ogni singolo server doveva essere sovradimensionato rispetto all’utilizzo medio, con un notevole spreco in termini di investimento e costi operativi;
  • L’aggiunta di una nuova applicazione comportava l’acquisto dell’hardware necessario e lunghi tempi di consegna, installazione e configurazione;
  • Per ogni server era necessario garantire gestione, ridondanza e manutenzione, spesso con competenze e strutture diverse e specializzate.

Con la virtualizzazione delle risorse, le tre funzioni (computing, storage e networking) sono state separate creando dei pool di risorse standard che possono essere suddivisi tra diverse applicazioni in modo scalabile dinamicamente. Si sono quindi create infrastrutture con rack di server collegati in rete a dispositivi di storage configurati come Storage Area Network o Network Attached Storage.

Virtualizzazione e container

La tecnologia è andata avanti in un secondo filone, rivolto ad ottenere un risultato ottimizzato nelle percentuali di sfruttamento dei sistemi. I sottosistemi sono stati unificati, migliorando la gestione degli spazi e della manutenzione. L’elaborazione è stata portata in edifici non di proprietà, quindi in outsourcing, con varie modalità di gestione da parte d’una società terza.

In questo filone di sviluppo tecnologico ci si è occupati di aumentare la percentuale di sfruttamento: le unità di elaborazione vengono condivise in modo da alternare carichi di lavoro diversi, apparentemente aumentando il numero di unità reali attraverso un processo chiamato virtualizzazione.

container

Una versione più ampia di virtualizzazione è la containerizzazione, ovvero l’esecuzione di più istanze di applicazioni complete di tutti i componenti di contorno all’interno di uno stesso sistema operativo. I sistemi virtuali così identificati si chiamano container e sono più semplici, agili e al contempo granulari della semplice virtualizzazione. Oggi la containerizzazione, orchestrata attraverso piattaforme come Kubernetes, è diventata il paradigma dominante per i carichi di lavoro nei data center moderni, dal cloud fino all’edge.

Convergenza e iperconvergenza

La complessità nella gestione e nell’aggiornamento dei vari sistemi, oltre alla difficoltà di ottimizzazione spinta visto il gran numero di macchinari ed operatori coinvolti, ha richiesto un intervento architetturale. Il fenomeno che ha via via virtualizzato i vari hardware standard inserendoli in un unico contenitore, e i relativi software di gestione ora amministrabili attraverso un’interfaccia unificata, si chiama convergenza.

Grazie alla convergenza, sistemi forniti da un unico vendor offrono costi minori per potenze ed automazione maggiori e con amministrazione semplificata, rendendo immediato verificare se l’Ict risponde alla necessità e se è opportuno effettuare qualche modifica.

sistemi-convergenti-server

Questi sistemi potenti e specializzati, uniti ad un sistema di storage di nuova generazione, sono di fatto un piccolo data center facilmente ampliabile e di nuovo adatto alla gestione on-premise. Sono estremamente elastici, scalabili e rivolti al cloud computing.

Gli armadi sono diventati più piccoli, nel nome della convergenza e dell’iperconvergenza, che mette a disposizione versioni ridotte di data center contenuti in un solo rack più o meno ampio e con software già configurato per una specifica applicazione.

Rientrano nelle architetture convergenti anche i cosiddetti sistemi integrati, che spesso vengono certificati dai vendor per applicazioni specifiche (come SAP/HANA, database Oracle, VMWare eccetera). L’ingegnerizzazione di questi sistemi è ancora più spinta e i sistemi sono così semplici da essere definiti appliances, nome che in inglese identifica dispositivi generici, come gli elettrodomestici.

Leggi anche: Infrastrutture convergenti: definizione, tendenze e best practice

L’iperconvergenza è un’accelerazione di questo fenomeno di semplificazione dell’Ict ed è stata definita come la prossima ondata della virtualizzazione.

Tipicamente, nei data center iperconvergenti si affiancano decine, centinaia o anche migliaia di server semplici e a basso costo, che racchiudono tutte le funzioni: computing, storage, networking ed eventualmente accelerazione di calcolo o GPU.

La ridondanza viene raggiunta duplicando interamente i server, in modo che in caso di guasto all’hardware di una macchina, una sua gemella sia pronta a prenderne il posto immediatamente. Nei data center più grandi, un server guasto viene semplicemente spento e rimpiazzato da uno nuovo sempre disponibile, per essere rimosso con calma giorni o anche settimane dopo.

sistemi-iper-convergenti

Il software, già di semplice gestione, in genere comprende funzioni finora esterne, quali sicurezza e disaster recovery. In caso di modifica delle risorse richieste basterà acquistare nuove appliances e collegarle all’alimentazione: il sistema complessivo si riconfigurerà automaticamente e senza aumentare la complessità di gestione.

Questo approccio è spesso impiegato per elaborare carichi di lavoro specifici come business intelligence, big data, intelligenza artificiale o applicazioni web su vasta scala (le infrastrutture di Amazon, Meta e Google sono basate su migliaia di server iperconvergenti). Il vantaggio principale, oltre alla semplicità di gestione e all’astrazione software dell’intero sistema di storage, è che i dati possono essere mantenuti vicini a dove viene eseguita l’elaborazione, evitando che la rete di collegamento tra storage e CPU costituisca un collo di bottiglia.

Leggi anche: Architetture iperconvergenti: definizione e casi d’uso

Cloud ibrido e data center

Il percorso della virtualizzazione porta al cloud computing, un modello oggi affermato per sicurezza, affidabilità e chiarezza nei costi. Questo paradigma indica la fruizione su richiesta e da qualsiasi punto connesso alla relativa rete a un pool di risorse computazionali condivise, aumentabili o diminuibili in poco tempo e mantenibili con un minimo sforzo di gestione da parte del fornitore del servizio.

Il cloud può essere declinato in diverse modalità, tra le quali quello privato e quello pubblico. La versione più in crescita negli ultimi anni è senz’altro il cloud ibrido. Usando strutture software compatibili, il sistema informativo aziendale può demandare a servizi esterni funzioni generali (es. la posta elettronica) o più specifiche (contabilità, CRM etc), mantenendo la visibilità d’un unico sistema ancorché ibrido. Ovviamente nulla vieta che l’ibridazione avvenga tra un certo numero di servizi tutti esterni e che l’azienda non abbia un suo data center interno. In questo caso, si parla di multi-cloud.

Software-defined data center

Inizialmente si è virtualizzato lo sfruttamento dei device fisici, poi ci si è dedicati anche ai controlli fisici. Questo filone, passato per i miglioramenti del cloud e della containerizzazione, si sta dirigendo verso il cosiddetto software-defined data center, nel quale tutte le unità sono virtualizzate sia nelle risorse (hardware, storage e connettività), sia nei controlli e negli strumenti di gestione.

In questa formulazione il data center sfrutta un livello superiore del software, detta orchestrazione. Le funzioni di adattamento ai carichi di lavoro di architetture diverse sono molto più versatili, automatizzate ed immediate che non nel passato.

Leggi anche: SDX: con il Software Defined Data Center, l’infrastruttura diventa un servizio

Data center modulari

Una delle tendenze più significative degli ultimi anni è l’affermazione dei data center modulari, ovvero strutture prefabbricate e pre-configurate in fabbrica che possono essere installate e rese operative in tempi molto rapidi rispetto alla costruzione tradizionale. Dove un data center convenzionale richiede da 3 a 5 anni per diventare operativo, un’installazione modulare può essere completata in 6-12 mesi.

Queste strutture, che superano di gran lunga i primi esperimenti basati su semplici container (in questo caso, si tratta proprio di container utilizzati per il trasporto via nave o su ferro), sono oggi soluzioni sofisticate che integrano alimentazione, raffreddamento (spesso a liquido), connettività e rack IT pre-testati in fabbrica. Il mercato dei data center modulari, stimato intorno ai 30-36 miliardi di dollari nel 2025, cresce a un tasso annuo superiore al 17%, trainato dalla domanda di infrastrutture per l’intelligenza artificiale, dall’espansione dell’edge computing e dalla necessità degli hyperscaler di standardizzare i deployment a livello globale.

I data center modulari rispondono a diverse esigenze critiche: la necessità di scalabilità rapida per i carichi AI, che possono richiedere rack da 50 a oltre 250 kW ciascuno; il deployment in località edge vicine agli utenti finali, dove la latenza sotto i 10 millisecondi è essenziale per applicazioni come veicoli autonomi, analisi video e IoT industriale; e la possibilità per le aziende di dimensionare l’infrastruttura in modo incrementale, evitando i costi di un data center sovradimensionato.

I principali vendor come Schneider Electric, HPE, Vertiv, Dell Technologies e Eaton hanno sviluppato piattaforme modulari specifiche per carichi AI ad alta densità, con sistemi di raffreddamento a liquido integrati capaci di supportare densità superiori a 100 kW per rack.

Mainframe

Completamente rivisitati e continuamente aggiornati nell’hardware e nei software, i mainframe continuano ad essere l’architettura di riferimento nelle transazioni, anche grazie alla innata predisposizione alla fault tolerance e all’esecuzione con prestazioni certe e definite, fino al real-time computing. Si tratta di elaborazioni di elevata potenza ma in settori del tutto diversi da quelli specifici dei supercomputer.

Oggi sono fortemente virtualizzati e containerizzati. Prestazioni e sicurezza li fanno preferire in questo settore anche nelle nuove applicazioni come la blockchain. È estremamente frequente vederli all’interno dei grandi data center odierni.

Nella sezione Mainframe di DigitalWorld è possibile trovare ulteriori informazioni, approfondimenti e notizie sull’argomento.

Storage per il data center

La tendenza è ormai consolidata a favore dello storage a stato solido, con unità completamente realizzate in questa tecnologia, chiamate anche AFA (All-Flash Arrays).

Dopo anni di esperienza, infatti, si ha un modello operativo piuttosto robusto, che non richiede la coesistenza con sistemi meccanici quali dischi o nastri. Lo storage allo stato solido è ideale per andare nella direzione del software-defined data center, o anche SFX (software-defines everything).

Va ricordato che lo storage è un sottosistema particolare, per il quale esiste il concetto di memorizzazione storica e quindi di mantenimento degli archivi del passato, direttamente con i sistemi via via sviluppati.

Un sistema di storage di grandi dimensioni solitamente tiene in vita tutti i supporti del passato: nastri, dischi ottici/CD/DVD, dischi rigidi di varia tecnologia, sistemi ibridi flash+disk. Per lo storage di massa e l’archiviazione, i dischi rigidi tradizionali (HDD) continuano a mantenere un ruolo grazie al costo per terabyte inferiore, con l’introduzione di nuove tecnologie come l’Heat-Assisted Magnetic Recording (HAMR) che estende ulteriormente la capacità per disco. Tuttavia, per le prestazioni richieste dai carichi AI e HPC, gli All-Flash Arrays rappresentano lo standard consolidato.

Puoi trovare le ultime notizie e approfondimenti nella sezione Storage del sito.

Raffreddamento a liquido: il nuovo standard per i data center AI

L’esplosione dei carichi di lavoro legati all’intelligenza artificiale ha reso il raffreddamento a liquido una necessità strutturale per i data center di nuova generazione. Le GPU e gli acceleratori AI di ultima generazione, con potenze termiche (TDP) che superano i 700 W per singolo chip e rack che raggiungono i 100-140 kW, hanno portato il tradizionale raffreddamento ad aria oltre i propri limiti fisici.

Il mercato del raffreddamento a liquido per data center, che nel 2024 valeva circa 1,3 miliardi di dollari, è atteso raddoppiare nel 2025 e raggiungere i 7 miliardi entro la fine del decennio, con tassi di crescita annui superiori al 20%.

Le principali tecnologie di raffreddamento a liquido oggi in uso sono tre. Il direct-to-chip (D2C), che rappresenta l’architettura dominante, prevede la circolazione di liquido refrigerante attraverso piastre metalliche (cold plate) a contatto diretto con CPU e GPU, assorbendo il calore alla fonte. L’immersion cooling consiste nell’immersione completa dei server in vasche di fluido dielettrico non conduttivo, ed è particolarmente efficace per ambienti ad altissima densità come il training di modelli AI e l’HPC. Infine, i rear-door heat exchanger rappresentano una soluzione intermedia, adatta al retrofitting di data center esistenti.

Tutti i principali hyperscaler — Microsoft, Google e Meta — hanno adottato il raffreddamento a liquido per i propri cluster AI. I vendor di server come Dell, Lenovo e HPE offrono ormai configurazioni con raffreddamento a liquido come opzione standard, mentre NVIDIA e AMD progettano le proprie GPU di punta con il liquid cooling come soluzione termica preferenziale. Il raffreddamento a liquido consente inoltre di recuperare il calore di scarto per il teleriscaldamento, un approccio già obbligatorio in alcune zone urbane della Scandinavia.

Normativa e certificazioni per data center

Orientarsi nel ginepraio di norme, leggi e regolamenti è sempre più difficile. Per l’ICT sono due i quadri di riferimento: l’Itil per le persone e l’Iso 20000 per le architetture.

Le certificazioni imprescindibili per la qualità dei processi aziendali e per il datacenter aggiornato sono rispettivamente la ISO 9001 e la ISO 27001. La protezione dei dati in Europa è affidata al GDPR (General Data Protection Regulation), in vigore dal 25 maggio 2018. A questo si aggiungono oggi le normative europee più recenti, come la Direttiva NIS2 per la cybersicurezza delle infrastrutture critiche, il regolamento DORA per la resilienza operativa digitale nel settore finanziario e l’AI Act, il primo quadro normativo al mondo sull’intelligenza artificiale.

Fault Tolerance: norme ANSI/TIA 942-A

Lo standard di riferimento nella progettazione e nell’esercizio dei datacenter è l’ANSI/TIA 942-A. Nel documento 942, la Telecommunication Industry Association descrive i livelli per l’architettura e i componenti elettrici, meccanici e di telecomunicazione ed offre un programma di certificazione indipendente, che aggiunge valore a chi lo ottiene. È stato adottato anche dall’AGID (Agenzia per l’Italia Digitale) per la classificazione dei CED della Pubblica Amministrazione italiana.

La TIA-942 propone inoltre una classificazione dei datacenter su 4 livelli o Rating, in funzione delle specifiche necessità di impiego e disponibilità. Ciascun livello rispetta le specifiche di tutti quelli che lo precedono:

  1. Basic
  2. Redundant component
  3. Concurrently maintenable
  4. Fault tolerant

Quest’ultimo richiede un indice di disponibilità del datacenter del 99,995%, pari ad appena 24 minuti di fermo annuo.

Ma per una efficacia dell’Ict 24 minuti potrebbero essere addirittura troppi: le necessità di business continuity vanno sempre più verso l’assenza totale di fermo operativo, il cosiddetto zero downtime.

Data center green e sostenibilità

La ISO 14001 elenca il quadro delle specifiche che una società o un’organizzazione può seguire per creare un efficace sistema di gestione ambientale. Può essere utilizzato da qualsiasi organizzazione indipendentemente dalla sua attività o settore, ivi compresi i datacenter. La versione più recente è la ISO 14001:2015.

Un datacenter richiede una grande quantità di elettricità. È da sempre importante valutare questo punto, sia nella progettazione degli edifici, sia nel caso in cui ci si appoggi ad edifici esistenti. La crescita esponenziale dei data center per l’intelligenza artificiale ha reso la questione energetica ancora più urgente: un singolo rack AI ad alta densità può consumare quanto un intero data center tradizionale di piccole dimensioni. Nell’Unione Europea, normative sempre più stringenti sull’efficienza energetica e sulle emissioni di carbonio stanno accelerando l’adozione di soluzioni sostenibili, tra cui il raffreddamento a liquido, le energie rinnovabili e il riutilizzo del calore residuo.

Un approccio responsabile al data center richiede la produzione di energie con fonti rinnovabili. L’approccio di certificazione è la Garanzia d’origine o GO, reperibile sul sito del GSE, conforme alla Direttiva 2009/28/CE. Sempre più operatori puntano alla neutralità carbonica e alla certificazione LEED o BREEAM per le proprie strutture.

Leggi anche: I principi del green computing

High performance computing

Se già i data center industriali sono impressionanti per complessità e capacità, il filone del supercomputing rappresenta la frontiera tecnologica dell’informatica. In un supercomputer, migliaia di server lavorano all’unisono per gestire singoli compiti estremamente complessi e impegnativi.

Supercomputer

Un supercomputer è un sistema di elaborazione di alcuni ordini di grandezza più potente d’un tradizionale data center. Tradizionalmente questi sistemi avevano hardware e software completamente diversi da quelli normalmente sul mercato, ma nel tempo i sistemi commerciali sono diventati competitivi.

Secondo la classifica TOP500 di novembre 2025, il supercomputer più potente al mondo è l’americano El Capitan, installato al Lawrence Livermore National Laboratory in California. Basato su piattaforma HPE Cray EX255a con processori AMD EPYC di quarta generazione e acceleratori AMD Instinct MI300A, ha raggiunto 1,809 exaflop/s nel benchmark HPL, con oltre 11 milioni di core e un’efficienza energetica di 60,9 GFlops/watt.

Al secondo posto si trova Frontier (1,353 exaflop/s), seguito da Aurora di Intel (1,012 exaflop/s). La novità storica del 2025 è l’ingresso dell’Europa nell’era exascale con JUPITER Booster, il sistema tedesco installato allo Jülich Supercomputing Centre, che ha raggiunto 1 exaflop/s grazie all’architettura BullSequana XH3000 di Eviden con chip NVIDIA Grace Hopper e raffreddamento a liquido. L’Italia si conferma al quarto posto mondiale per capacità complessiva di supercalcolo, con due sistemi nella Top10: HPC6 al sesto posto e Leonardo al decimo.

Nella classifica Green500, dedicata all’efficienza energetica, dominano i sistemi basati su NVIDIA Grace Hopper con architettura BullSequana XH3000, con il francese KAIROS in testa a 73,28 GFlops/Watt.

Leggi anche: Supercomputer: l’Europa entra in classe exascale e l’Italia è al quarto posto nella Top500

AI data center e GPU: l’infrastruttura per l’intelligenza artificiale

La trasformazione più profonda nel panorama dei data center degli ultimi anni è la nascita degli AI data center, strutture specificamente progettate per supportare l’addestramento e l’inferenza di modelli di intelligenza artificiale. A differenza dei data center tradizionali, queste strutture sono costruite attorno a cluster di GPU (Graphics Processing Unit) e acceleratori AI dedicati, con architetture di rete ad altissima banda, sistemi di raffreddamento a liquido e infrastrutture elettriche potenziate.

Le GPU rappresentano il cuore computazionale di queste strutture. Nate per accelerare il rendering grafico nei videogiochi, la loro architettura massivamente parallela le ha rese lo strumento ideale per l’addestramento e l’inferenza dei modelli di deep learning, il mining di criptovalute e qualsiasi applicazione computazionale ad alto parallelismo.

Nel 2024 le GPU hanno generato circa 100 miliardi di dollari di ricavi nel segmento data center, una cifra destinata a più che raddoppiare entro il 2030. NVIDIA detiene circa il 93% del mercato delle GPU per server, con la sua piattaforma Blackwell Ultra lanciata nel 2025 che offre prestazioni di inferenza 1,5 volte superiori alla generazione precedente. La prossima piattaforma Vera Rubin, attesa nel 2026, promette prestazioni 3,3 volte superiori a Blackwell Ultra, con l’obiettivo di 15 exaflop per rack con la versione Rubin Ultra prevista per il 2027.

AMD compete con la serie Instinct MI350/MI355X, mentre Google sviluppa i propri TPU (Tensor Processing Unit) e i principali hyperscaler investono in acceleratori custom (ASIC) per ottimizzare costi ed efficienza. La tendenza verso chip custom è in forte crescita, con gli ASIC destinati a raggiungere quasi 85 miliardi di dollari entro il 2030.

I rack AI moderni consumano tra 80 e 140 kW, con proiezioni che indicano consumi fino a 1 MW per rack entro il 2029, rendendo necessarie nuove architetture di distribuzione elettrica, incluso il passaggio a sistemi a 800 Volt in corrente continua.

Quantum computing

Google, IBM, Microsoft e numerose startup competono per il primato nel quantum computing. Si tratta di un approccio alla computazione radicalmente differente da quelli tradizionali, seriali o paralleli che siano. L’unità elementare dell’elaborazione binaria parte da bit, binary digits, che possono avere solo due valori, convenzionalmente 0 o 1. Nel quantum computing, invece, il qubit può assumere contemporaneamente un elevato numero di valori, realizzando molte operazioni ad ogni esecuzione. Ovviamente vengono richiesti hardware, software e algoritmi completamente diversi da quelli del passato. La potenza promessa è straordinaria.

Al momento questi sistemi richiedono un raffreddamento a temperature prossime allo zero assoluto (-273,16 °C). Nonostante i progressi significativi — IBM ha superato i 1.000 qubit e Google ha dimostrato risultati importanti nella correzione degli errori quantistici — il quantum computing rimane in una fase pre-commerciale per la maggior parte delle applicazioni. I casi d’uso più promettenti riguardano la crittografia, la simulazione molecolare, l’ottimizzazione logistica e la ricerca farmaceutica.

Nella nostra sezione dedicata al Quantum Computing potete trovare notizie e approfondimenti sul tema.

Edge computing e IoT per il data center

L’evoluzione dell’Internet of Things e la diffusione di applicazioni a bassa latenza come veicoli autonomi, analisi video in tempo reale e automazione industriale hanno dato impulso all’edge computing, ovvero l’elaborazione dei dati in prossimità della loro fonte di generazione anziché in un data center centralizzato.

L’edge computing si integra con le architetture cloud ibride e i data center modulari per creare un continuum computazionale che va dal dispositivo periferico fino all’hyperscale. I micro data center e le soluzioni modulari prefabbricate sono gli strumenti ideali per portare capacità di calcolo, storage e intelligenza artificiale fino ai margini della rete, mantenendo tempi di risposta sotto i 10 millisecondi.

Le componenti dell’ICT si sono quindi ampliate: sensore, elaboratore, memoria, rete — con l’aggiunta sempre più frequente di acceleratori AI dedicati anche ai margini dell’infrastruttura.

(di Leo Sorge, aggiornato nel 2025)

Il cloud provider francese Scaleway (Iliad) apre una region a Milano con server dedicati, GPU, IaaS e PaaS

Il cloud provider francese Scaleway (Iliad) apre una region a Milano con server dedicati, GPU, IaaS e PaaS

Scaleway arriva in Italia con una cloud region a Milano, offrendo più sovranità digitale, AI avanzata e alternativa europea agli hyperscaler globali.  »

Francesco Destri // 20.03.2026
Le AI Factory di NTT Data offrono soluzioni pronte all’uso per le aziende. Primi casi in healthcare, automotive e manufacturing

Le AI Factory di NTT Data offrono soluzioni pronte all’uso per le aziende. Primi casi in healthcare, automotive e manufacturing

NTT DATA annuncia AI Factory enterprise basate su tecnologia NVIDIA per accelerare l’adozione dell’intelligenza artificiale nelle imprese, con soluzioni scalabili e specifiche per settore.  »

Francesco Destri // 16.03.2026
IDC: la spesa per le infrastrutture per l’IA corre verso i 900 mld nel 2029

IDC: la spesa per le infrastrutture per l’IA corre verso i 900 mld nel 2029

Tra nuovi requisiti dettati da regolamentazione, sovranità dei dati e dinamiche geopolitiche, la spesa globale per le infrastrutture IA ha raggiunto i 334 miliardi di dollari nel 2025 e supererà i 900 miliardi entro il 2029.  »

Francesco Destri // 10.03.2026
Data center impattati dalla guerra in Iran: AWS consiglia di spostare i workload in altre zone

Data center impattati dalla guerra in Iran: AWS consiglia di spostare i workload in altre zone

Alcuni data center Amazon in UAE e Bahrain hanno subito danni diretti da attacchi di droni lanciati dall'Iran, compromettendo gravemente i servizi cloud di AWS.  »

Francesco Destri // 04.03.2026
Meta sceglie le CPU Nvidia Grace: la sfida a Intel e AMD parte dai data center

Meta sceglie le CPU Nvidia Grace: la sfida a Intel e AMD parte dai data center

Meta è tra i primi hyperscaler a usare le CPU Nvidia Grace in sistemi standalone e prepara l’arrivo delle Vera: una svolta tecnica che ridisegna efficienza, AI agentica e strategie nei data center.  »

Francesco Destri // 18.02.2026
Abbiamo speso 86 mld in infrastrutture AI nel terzo trimestre 2025, dice IDC

Abbiamo speso 86 mld in infrastrutture AI nel terzo trimestre 2025, dice IDC

IDC fotografa un record storico: 86 miliardi di dollari nel Q3 2025 per le infrastrutture AI. Server e GPU trainano la crescita, con USA e Cina in testa e il nodo energia come rischio principale.  »

Francesco Destri // 17.02.2026
Dell Private Cloud permette di abbinare il suo storage esterno alla piattaforma Nutanix AVH

Dell Private Cloud permette di abbinare il suo storage esterno alla piattaforma Nutanix AVH

Dell Private Cloud evolve e, con il supporto a Nutanix su PowerFlex (e presto PowerStore), punta su flessibilità multi-hypervisor, scalabilità indipendente e gestione semplificata dei workload.  »

Francesco Destri // 16.02.2026
Lo storage FlashSystem di IBM si autogestisce con l’IA

Lo storage FlashSystem di IBM si autogestisce con l’IA

IBM presenta la nuova generazione FlashSystem con agentic AI, promettendo più efficienza, rilevamento ransomware in tempo reale, gestione autonoma e fino al 90% di lavoro manuale in meno.  »

Francesco Destri // 11.02.2026
Data center verso il raddoppio nel 2030, ma in EU ci sono 7 anni di attesa perché manca energia

Data center verso il raddoppio nel 2030, ma in EU ci sono 7 anni di attesa perché manca energia

La capacità globale dei data center potrebbe raddoppiare entro il 2030 grazie a cloud hyperscale e AI. Crescono costi, vincoli energetici e investimenti.  »

Francesco Destri // 04.02.2026
Puls8 di DataCore promette storage ad alte prestazioni per Kubernetes

Puls8 di DataCore promette storage ad alte prestazioni per Kubernetes

DataCore presenta Puls8, piattaforma di storage persistente nativa Kubernetes pensata per workload stateful, NVMe e ambienti enterprise ad alte prestazioni.  »

Francesco Destri // 28.01.2026
Manutenzione predittiva del data center: Vertiv offre un servizio dedicato

Manutenzione predittiva del data center: Vertiv offre un servizio dedicato

Vertiv Next Predict è un nuovo servizio basato sull’AI che coniuga competenze sul campo e algoritmi evoluti di machine learning per anticipare gli eventuali problemi nei data center prima che questi si verifichino.  »

Francesco Destri // 28.01.2026
Aruba Hyper Hosting è il nuovo servizio semplice come l’hosting gestito, ma con risorse dedicate come il cloud

Aruba Hyper Hosting è il nuovo servizio semplice come l’hosting gestito, ma con risorse dedicate come il cloud

Hyper Hosting è un nuovo servizio di Aruba pensato per chi ha progetti digitali ad alto traffico o applicazioni business-critical e non vuole più i limiti dell’hosting tradizionale.  »

Francesco Destri // 15.01.2026
Per prevenire le proteste, Microsoft vara un’iniziativa per rendere sostenibili i data center

Per prevenire le proteste, Microsoft vara un’iniziativa per rendere sostenibili i data center

Microsoft lancia Community-First AI Infrastructure, un piano per costruire data center sostenibili e responsabili capaci di creare valore economico e sociale nei territori in cui operano.   »

Francesco Destri // 14.01.2026
AWS apre ad AHV: Nutanix rafforza il fronte ibrido e ridefinisce gli equilibri post-VMware

AWS apre ad AHV: Nutanix rafforza il fronte ibrido e ridefinisce gli equilibri post-VMware

AWS estende il supporto del suo Storage Gateway all’hypervisor AHV di Nutanix, rafforzando le strategie di cloud ibrido e aprendo nuovi scenari per le aziende in cerca di alternative credibili a VMware dopo l’era Broadcom.  »

Francesco Destri // 24.12.2025
I FlashArray di Pure Storage si integrano anche alla piattaforma Nutanix

I FlashArray di Pure Storage si integrano anche alla piattaforma Nutanix

La soluzione integrata Nutanix–Pure Storage offre infrastruttura full-stack ad alte prestazioni, granularità per VM, zero downtime e gestione semplificata per workload critici, AI e ambienti ibridi.  »

Francesco Destri // 12.12.2025
Lenovo rinnova la gamma storage per ogni caso d’uso: VM, HCI, AI, Nutanix

Lenovo rinnova la gamma storage per ogni caso d’uso: VM, HCI, AI, Nutanix

Lenovo presenta nuove soluzioni ThinkSystem e ThinkAgile per modernizzare storage, virtualizzazione e gestione dati, con servizi ibridi ottimizzati per AI e carichi di lavoro avanzati.  »

Francesco Destri // 11.12.2025
Con networking e virtualizzazione, HPE punta al centro dell’infrastruttura per l’IA

Con networking e virtualizzazione, HPE punta al centro dell’infrastruttura per l’IA

Con l’acquisizione di Juniper Networks e la sempre maggiore focalizzazione sulle piattaforme per la gestione dell’infrastruttura e la virtualizzazione, HPE sta cercando un nuovo ruolo al centro delle infrastrutture cloud e IA  »

Andrea Grassi // 10.12.2025
Proxmox alza il tiro e rilascia Datacenter Manager, con tool per migrazione da VMware

Proxmox alza il tiro e rilascia Datacenter Manager, con tool per migrazione da VMware

Proxmox Datacenter Manager è un gestionale centralizzato per ambienti multi-cluster che porta la virtualizzazione open-source verso un vero modello di cloud privato e che punta a competere con VMware.  »

Francesco Destri // 05.12.2025
Per Gartner, i data center dovranno presto avere un proprio generatore di energia

Per Gartner, i data center dovranno presto avere un proprio generatore di energia

Mentre emergono nuove soluzioni energetiche pulite, secondo Gartner i data center consumeranno 980 TWh di elettricità entro il 2030, trainati dai server ottimizzati per l’IA.   »

Francesco Destri // 04.12.2025
Pagina 1 di 31
Condividi