Data Center: caratteristiche, tendenze e best practice nel 2021

Tendenze, best-practice, normative e certificazioni: tutto quel che bisogna sapere su dove sta andando il data center

La tecnologia, per essere disponibile, deve mapparsi sul business con agilità. Questa semplice affermazione vale anche per l’ICT, che descrive le necessità di trasformazione digitale dei dati. Le relative operazioni vengono svolte nel data center, e le richieste del mercato variano costantemente con il tempo.

Le principali necessità del 2018 e 2019 sembrano essere la continuità di servizio  “zero downtime”, lo storage a stato solido e l’utilizzo di sensori, mentre le tendenze di architettura volgono alla convergenza, iperconvergenza e alla creazione di cloud ibridi.

Evoluzione del data center

Classicamente le componenti ICT venivano assemblate in unità di medie dimensioni dette armadi, ciascuna con tre sottosistemi, uno per ciascuna componente (hardware, storage, connettività). Ciascuna unità era dedicata a un compito o un’applicazione specifica (come ERP, CRM, Email e singole applicazioni di business).

Questo tipo di architettura aveva diversi svantaggi:

  • Per poter sopportare i carichi di picco e gli sviluppi futuri, ogni singolo server doveva essere sovradimensionato rispetto all’utilizzo medio, con un notevole spreco in termini di investimento e costi operativi;
  • L’aggiunta di una nuova applicazione comportava l’acquisto dell’hardware necessario e lunghi tempi di consegna, installazione e configurazione;
  • Per ogni server era necessario garantire gestione, ridondanza e manutenzione, spesso con competenze e strutture diverse e specializzate.

Con la virtualizzazione delle risorse, le tre funzioni (computing, storage e networking) sono state separate creando dei pool di risorse standard che possono essere suddivisi tra diverse applicazioni in modo scalabile dinamicamente. Si sono quindi create infrastrutture con rack di server collegati in rete a dispositivi di storage configurati come Storage Area Network o Network Attached Storage.

Leggi anche: I trend per i data center nel 2018 (qui, per confronto, indichiamo anche quelle che erano le 5 tendenze per i data center nel 2017)

Virtualizzazione e Container

La tecnologia è andata avanti in un secondo filone, rivolto ad ottenere un risultato ottimizzato nelle percentuali di sfruttamento dei sistemi. I sottosistemi sono stati unificati, migliorando la gestione degli spazi e della manutenzione. L’elaborazione è stata portata in edifici non di proprietà, quindi in outsourcing, con varie modalità di gestione da parte d’una società terza.

In questo filone di sviluppo tecnologico ci si è occupati di aumentare la percentuale di sfruttamento: le unità di elaborazione vengono condivise in modo da alternare carichi di lavoro diversi, apparentemente aumentando il numero di unità reali attraverso un processo chiamato virtualizzazione.

container

Una versione più ampia di virtualizzazione è la containerizzazione, ovvero l’esecuzione di più istanze dello stesso sistema operativo, nelle quali vengono eseguiti programmi collegati ad un solo utente. I sistemi virtuali così identificati si chiamano container e sono più semplici, agili e al contempo granulari della semplice virtualizzazione.

Convergenza e iperconvergenza

La complessità nella gestione e nell’aggiornamento dei vari sistemi, oltre alla difficoltà di ottimizzazione spinta visto il gran numero di macchinari ed operatori coinvolti, ha richiesto un intervento architetturale. Il fenomeno che ha via via virtualizzato i vari hardware standard inserendoli in un unico contenitore, e i relativi software di gestione ora amministrabili attraverso un’interfaccia unificata, si chiama convergenza.

Grazie alla convergenza, sistemi forniti da un unico vendor offrono costi minori per potenze ed automazione maggiori e con amministrazione semplificata, rendendo immediato verificare se l’Ict risponde alla necessità e se è opportuno effettuare qualche modifica.

sistemi-convergenti-server

Questi sistemi potenti e specializzati, uniti ad un sistema di storage di nuova generazione, sono di fatto un piccolo data center facilmente ampliabile e di nuovo adatto alla gestione on-premise. Sono estremamente elastici, scalabili e rivolti al cloud computing.

Gli armadi sono diventati più piccoli, nel nome della convergenza e dell’iperconvergenza, che mette a disposizione versioni ridotte di data center contenuti in un solo rack più o meno ampio e con software già configurato per una specifica applicazione.

Rientrano nelle architetture convergenti anche i cosiddetti sistemi integrati, che spesso vengono certificati dai vendor per applicazioni specifiche (come SAP/HANA, database Oracle, VMWare eccetera). L’ingegnerizzazione di questi sistemi è ancora più spinta e i sistemi sono così semplici da essere definiti appliances, nome che in inglese identifica dispositivi generici, come gli elettrodomestici.

Leggi anche: Infrastrutture convergenti: definizione, tendenze e best practice

L’iperconvergenza è un’accelerazione di questo fenomeno di semplificazione dell’Ict ed è stata definita come la prossima ondata della virtualizzazione.

Tipicamente, nei data center iperconvergenti si affiancano decine, centinaia o anche migliaia di server semplici e a basso costo, che racchiudono tutte le funzioni: computing, storage, networking ed eventualmente accelerazione di calcolo o GPU.

La ridondanza viene raggiunta duplicando interamente i server, in modo che in caso di guasto all’hardware di una macchina, una sua gemella sia pronta a prenderne il posto immediatamente. Nei data center più grandi, un server guasto viene semplicemente spento e rimpiazzato da uno nuovo sempre disponibile, per essere rimosso con calma giorni o anche settimane dopo.

sistemi-iper-convergenti

Il software, già di semplice gestione, in genere comprende funzioni finora esterne, quali sicurezza e disaster recovery. In caso di modifica delle risorse richieste basterà acquistare nuove appliances e collegarle all’alimentazione: il sistema complessivo si riconfigurerà automaticamente e senza aumentare la complessità di gestione.

Questo approccio è spesso impiegato per elaborare carichi di lavoro specifici come business intelligence, big data, intelligenza artificiale o applicazioni web su vasta scala (le infrastrutture di Amazon, Facebook e Google sono basate su migliaia di server iperconvergenti). Il vantaggio principale, oltre alla semplicità di gestione e all’astrazione software dell’intero sistema di storage, è che i dati possono essere mantenuti vicini a dove viene eseguita l’elaborazione, evitando che la rete di collegamento tra storage e CPU costituisca un collo di bottiglia.

Leggi anche: Architetture iperconvergenti: definizione e casi d’uso

Cloud ibrido e data center

Il percorso della virtualizzazione porta al cloud computing, un modello oggi affermato per sicurezza, affidabilità e chiarezza nei costi. Questo paradigma indica la fruizione su richiesta e da qualsiasi punto connesso alla relativa rete a un pool di risorse computazionali condivise, aumentabili o diminuibili in poco tempo e mantenibili con un minimo sforzo di gestione da parte del fornitore del servizio.

Il cloud può essere declinato in diverse modalità, tra le quali quello privato e quello pubblico. La versione di maggior successo è senz’altro il cloud ibrido. Usando strutture software compatibili, il sistema informativo aziendale può demandare a servizi esterni funzioni generali (es. la posta elettronica) o più specifiche (contabilità, CRM etc), mantenendo la visibilità d’un unico sistema ancorché ibrido. Ovviamente nulla vieta che l’ibridazione avvenga tra un certo numero di servizi tutti esterni e che l’azienda non abbia un suo data center interno.

Software-defined data center

Inizialmente si è virtualizzato lo sfruttamento dei device fisici, poi ci si è dedicati anche ai controlli fisici. Questo filone, passato per i miglioramenti del cloud e della containerizzazione, si sta dirigendo verso il cosiddetto software-defined data center, nel quale tutte le unità sono virtualizzate sia nelle risorse (hardware, storage e connettività), sia nei controlli e negli strumenti di gestione.

In questa formulazione il data center sfrutta un livello superiore del software, detta orchestrazione. Le funzioni di adattamento ai carichi di lavoro di architetture diverse sono molto più versatili, automatizzate ed immediate che non nel passato.

Leggi anche: SDX: con il Software Defined Data Center, l’infrastruttura diventa un servizio

Mainframe

Completamente rivisitati e continuamente aggiornati nell’hardware e nei software, i mainframe continuano ad essere l’architettura di riferimento nelle transazioni, anche grazie alla innata predisposizione alla fault tolerance e all’esecuzione con prestazioni certe e definite, fino al real-time computing. Si tratta di elaborazioni di elevata potenza ma in settori del tutto diversi da quelli specifici dei supercomputer.

Oggi sono fortemente virtualizzati e containerizzati. Prestazioni e sicurezza li fanno preferire in questo settore anche nelle nuove applicazioni come la blockchain. È estremamente frequente vederli all’interno dei grandi data center odierni.

Nella sezione Mainframe di CWI è possibile trovare ulteriori informazioni, approfondimenti e notizie sull’argomento.

Storage per il data center

La tendenza di oggi è tutta a favore dello storage a stato solido, con unità completamente realizzate in questa tecnologia, chiamate anche AFA (All-Flash Arrays).

Dopo anni di esperienza, infatti, si ha un modello operativo piuttosto robusto, che non richiede la coesistenza con sistemi meccanici quali dischi o nastri. Lo storage allo stato solido è ideale per andare nella direzione del software-defined data center, o anche SFX (software-defines everything).

Va ricordato che lo storage è un sottosistema particolare, per il quale esiste il concetto di memorizzazione storica e quindi di mantenimento degli archivi del passato, direttamente con i sistemi via via sviluppati.

Un sistema di storage di grandi dimensioni solitamente tiene in vita tutti i supporti del passato: nastri, dischi ottici/CD/DVD, dischi rigidi di varia tecnologia, sistemi ibridi flash+disk, ma gli sviluppi futuri sembrano puntare nella direzione degli All-Flash Arrays.

Normativa e certificazioni per data center

Orientarsi nel ginepraio di norme, leggi e regolamenti è sempre più difficile. Per l’ICT sono due i quadri di riferimento: l’Itil per le persone e l’Iso 20000 per le architetture.

Le certificazioni imprescindibili per la qualità dei processi aziendali e per il datacenter aggiornato sono rispettivamente la ISO 9001 e la ISO 27001. La protezione dei dati in Europa è affidata, dal 25 maggio 2018, al GDPR, General Data Protection Regulation.

Fault Tolerance: norme ANSI/TIA 942-A

Lo standard di riferimento nella progettazione e nell’esercizio dei datacenter è l’ANSI/TIA 942-A. Nel documento 942, la Telecommunication Industry Association descrive i livelli per l’architettura e i componenti elettrici, meccanici e di telecomunicazione ed offre un programma di certificazione indipendente, che aggiunge valore a chi lo ottiene. È stato adottato anche dall’AGID (Agenzia per l’Italia Digitale) per la classificazione dei CED della Pubblica Amministrazione italiana.

La TIA-942 propone inoltre una classificazione dei datacenter su 4 livelli o Rating, in funzione delle specifiche necessità di impiego e disponibilità. Ciascun livello rispetta le specifiche di tutti quelli che lo precedono:

  1. Basic
  2. Redundant component
  3. Concurrently maintenable
  4. Fault tolerant

Quest’ultimo richiede un indice di disponibilità del datacenter del 99,995%, pari ad appena 24 minuti di fermo annuo.

Ma per una efficacia dell’Ict 24 minuti potrebbero essere addirittura troppi: le necessità di business continuity vanno sempre più verso l’assenza totale di fermo operativo, il cosiddetto zero downtime.

Data center green

La ISO 14001 elenca il quadro delle specifiche che una società o un’organizzazione può seguire per creare un efficace sistema di gestione ambientale. Può essere utilizzato da qualsiasi organizzazione indipendentemente dalla sua attività o settore, ivi compresi i datacenter. La versione più recente è la ISO 14001:2015.

Un datacenter richiede una grande quantità di elettricità. È da sempre importante valutare questo punto, sia nella progettazione degli edifici, sia nel caso in cui ci si appoggi ad edifici esistenti. Nel corso del 2018 si sono susseguite osservazioni sul costo energetico del mining di criptovalute, un’attività la cui convenienza dipende fortemente dal costo dell’energia.

Un approccio responsabile al data center richiede la produzione di energie con fonti rinnovabili. L’approccio di certificazione è la Garanzia d’origine o GO, reperibile sul sito del GSE, conforme alla Direttiva 2009/28/CE.

Leggi anche: I principi del green computing

High performance computing

Dopo on premise e virtualizzazione, arriva la rivoluzione. In un terzo filone di evoluzione dei data center, l’hardware è stato completamente modificato per supportare nuove tendenze dell’elaborazione. Rispetto alla tradizione, possiamo definire questo approccio come rivoluzionario. Di questa estrema specializzazione sono esempi tutti i filoni dell’high performance computing.

Supercomputer

Un supercomputer è un sistema di elaborazione di alcuni ordini di grandezza più potente d’un tradizionale data center. Tradizionalmente questi sistemi avevano hardware e software completamente diversi da quelli normalmente sul mercato, ma nel tempo i sistemi commerciali sono diventati competitivi.

Il più potente supercomputer al mondo è il cinese Taihulight. Usa il Sunway 26010, un chip risc multicore di produzione della cinese Sunway. Oggi tra i primi dieci, quattro si poggiano su Intel Xeon, due su Nvidia (con Intel o AMD), uno su IBM PowerPC, uno su Sparc, uno su Pezy (hardware parallelo, con Intel).

Leggi anche: I dieci supercomputer più potenti al mondo

GPU data center (rendering farm, big data, IA, mining)

Le GPU sono chip che compiono alcune operazioni a velocità impensabile per microprocessori tradizionali. Il loro nome, graphics processing unit, indica che sono nate per accelerare i videogiochi, e quindi per qualsiasi problema di rendering 2D/3D. La loro architettura parallela le ha rese adattissime a realizzare altri compiti specifici di tipo computazionale, intelligenza artificiale/machine learning e mining di criptovalute.

La predisposizione ai big data ne aumenta l’interesse per il mercato dei data center. Le Gpu richiedono di essere coordinate da un microprocessore tradizionale. Il produttore più noto è Nvidia, ma esistono sul mercato molte altre proposte.

Quantum Computing

Google, IBM e D-Wave competono per il primato nel quantum computing. Si tratta di un approccio alla computazione radicalmente differente da quelli tradizionali, seriali o paralleli che siano. L’unità elementare dell’elaborazione binaria barte da bit, binary digits, che possono avere solo due valori, convenzionalmente 0 o 1. Nel quantum computing, invece, il qubit può assumere contemporaneamente un elevato numero di valori, realizzando molte operazioni ad ogni esecuzione. Ovviamente vengono richiesti hardware, software e algoritmi completamente diversi da quelli del passato. La potenza promessa è straordinaria.

Al momento questi sistemi, ancora sperimentali, richiedono un raffreddamento a 10 mK, ovvero dieci millesimi di grado sopra allo zero assoluto (-273,16 °C). Non esattamente un’appliance. Se dovessero diventare più semplici, i computer quantistici potrebbero entrare nei data center per una gamma di applicazioni ancora da determinare.

L’IoT per il data center

L’innovazione tecnologica proposta dall’IoT è fortissima, ma non c’è ancora una tecnologia hardware adeguata né le competenze tecniche sufficienti. L’hardware tradizionale è inadeguato a supportare applicazioni di nuova generazione e in particolare quelle associate all’Internet of Things.

Inoltre la struttura di pensiero odierna è fortemente orientata al passato: anche avendo a disposizione nuovi dati, la loro raccolta ed elaborazione è ancora fortemente penalizzata da poca originalità di analisi.

È estremamente probabile che gli IoT data center svilupperanno nuovo hardware specifico. Le componenti dell’ICT standard potrebbero quindi diventare quattro: sensore, elaboratore, memoria, rete.

(di Leo Sorge)

Proxmox alza il tiro e rilascia Datacenter Manager, con tool per migrazione da VMware

Proxmox alza il tiro e rilascia Datacenter Manager, con tool per migrazione da VMware

Proxmox Datacenter Manager è un gestionale centralizzato per ambienti multi-cluster che porta la virtualizzazione open-source verso un vero modello di cloud privato e che punta a competere con VMware.  »

Francesco Destri // 05.12.2025
Per Gartner, i data center dovranno presto avere un proprio generatore di energia

Per Gartner, i data center dovranno presto avere un proprio generatore di energia

Mentre emergono nuove soluzioni energetiche pulite, secondo Gartner i data center consumeranno 980 TWh di elettricità entro il 2030, trainati dai server ottimizzati per l’IA.   »

Francesco Destri // 04.12.2025
Quasi metà dei data center di proprietà non sono sostenibili, dicono i CIO

Quasi metà dei data center di proprietà non sono sostenibili, dicono i CIO

Un nuovo studio di Lenovo evidenzia una frattura netta tra l'accelerazione della domanda digitale, guidata in primis dai carichi di lavoro IA intensivi, e la capacità dei data center di supportare in modo efficiente e conforme tale crescita.  »

Francesco Destri // 25.11.2025
5 vulnerabilità gravi hanno messo a rischio miliardi di VM per quasi un decennio

5 vulnerabilità gravi hanno messo a rischio miliardi di VM per quasi un decennio

Tutto quello che bisogna sapere sulle cinque vulnerabilità di Fluent Bit sfruttate per anni, sulle implicazioni per le grandi piattaforme cloud e sulle strategie di difesa necessarie.  »

Francesco Destri // 25.11.2025
Il data center cambia pelle: ecco la AI Factory secondo Vertiv

Il data center cambia pelle: ecco la AI Factory secondo Vertiv

Andrea Faeti di Vertiv ci parla delle nuove sfide tecnologiche che ridisegnano le infrastrutture digitali: densità energetica, liquid cooling e alimentazione a 800V in corrente continua  »

Andrea Grassi // 24.11.2025
Il cloud di Oracle raddoppia in Italia: aperta a Torino la seconda region, che supporta anche il PSN

Il cloud di Oracle raddoppia in Italia: aperta a Torino la seconda region, che supporta anche il PSN

La nuova Oracle Cloud Region di Torino offrirà a organizzazioni pubbliche e private l’accesso a un’ampia gamma di servizi cloud e di IA per migrare su OCI qualsiasi tipo di carico di lavoro.  »

Francesco Destri // 24.11.2025
Proxmox lancia la versione 9.1, che supporta i container OCI in LXC

Proxmox lancia la versione 9.1, che supporta i container OCI in LXC

Proxmox VE 9.1 offre l'integrazione nativa di immagini OCI per container LXC, la gestione degli snapshot vTPM su qcow2 e una nuova visibilità sulla rete definita dal software.  »

Francesco Destri // 21.11.2025
Supercomputer: l’Europa entra in classe Hexascale e l’Italia è al quarto posto nella classifica dei Top500

Supercomputer: l’Europa entra in classe Hexascale e l’Italia è al quarto posto nella classifica dei Top500

La nuova classifica TOP500 2025 incorona ancora El Capitan come supercomputer più potente al mondo, mentre l’Europa entra ufficialmente nell’exascale con JUPITER e l'Italia ha due sistemi nella Top10.  »

Francesco Destri // 19.11.2025
Perché il mercato della virtualizzazione dei server si sta frammentando e cosa significa l’era post-VMware?

Perché il mercato della virtualizzazione dei server si sta frammentando e cosa significa l’era post-VMware?

Dopo che l’acquisizione di VMware da parte di Broadcom ha creato la più grande disruption nel mercato della virtualizzazione da decenni, sono sempre più le aziende che stanno ripensando l’infrastruttura IT per ridurre costi e dipendenze.  »

Francesco Destri // 18.11.2025
Samsung verso un aumento fino al 60% del prezzo delle memorie DDR?

Samsung verso un aumento fino al 60% del prezzo delle memorie DDR?

La domanda per l’IA ha spinto Samsung a incrementare i prezzi dei moduli DDR5 fino al 60%. Ecco come il boom dei data center, la carenza di memoria e accordi a lungo termine stanno ridisegnando il mercato dei semiconduttori.  »

Francesco Destri // 17.11.2025
I nuovi supercomputer Cray di HPE raggiungono densità di calcolo mai viste

I nuovi supercomputer Cray di HPE raggiungono densità di calcolo mai viste

HPE rinnova la linea di supercomputer Cray con tre nuovi blade ad alta densità, software unificato e storage DAOS per laboratori, università e imprese.  »

Francesco Destri // 14.11.2025
Pure Storage e Cisco lanciano i pod modulari con GPU Nvidia per costruire le AI factory

Pure Storage e Cisco lanciano i pod modulari con GPU Nvidia per costruire le AI factory

Cisco e Pure Storage presentano FlashStack CVD, una piattaforma end-to-end che unisce calcolo GPU, storage ad alte prestazioni e software NVIDIA per accelerare il deployment di IA su scala enterprise.  »

Francesco Destri // 10.11.2025
Inaugurato a Bologna Pitagora, il supercomputer ultra efficiente per la ricerca sulla fusione nucleare

Inaugurato a Bologna Pitagora, il supercomputer ultra efficiente per la ricerca sulla fusione nucleare

Il supercomputer Pitagora entrerà a far parte del Tecnopolo di Bologna e sarà dedicato alla simulazione numerica della fisica del plasma e all’analisi strutturale di materiali avanzati per la fusione nucleare.  »

Francesco Destri // 04.11.2025
Hitachi e Red Hat: l’open source come alternativa ai virtualizzatori proprietari per lo storage

Hitachi e Red Hat: l’open source come alternativa ai virtualizzatori proprietari per lo storage

Con Red Hat OpenShift Virtualization su Hitachi Vantara VSP One, la migrazione delle VM promette di diventare semplice, flessibile e senza vincoli, riducendo costi e accelerando l’operatività aziendale.  »

Francesco Destri // 23.10.2025
Vertiv lavora con Nvidia l’alimentazione dei server a 800 V in continua. Obiettivo: 1 MW per rack

Vertiv lavora con Nvidia l’alimentazione dei server a 800 V in continua. Obiettivo: 1 MW per rack

Vertiv annuncia i progressi con NVIDIA nello sviluppo di sistemi a 800 VDC per le AI Factory di nuova generazione, pronti a supportare carichi di calcolo su scala megawatt.  »

Francesco Destri // 22.10.2025
A2A: entro il 2030 i data center milanesi decuplicheranno la capacità. Il nodo dell’energia

A2A: entro il 2030 i data center milanesi decuplicheranno la capacità. Il nodo dell’energia

La capacità dei data center nell’area di Milano crescerà di dieci volte nei prossimi cinque anni, raggiungendo 2 GW. Un boom guidato dall’intelligenza artificiale e supportato da nuove centrali e fonti rinnovabili.  »

Francesco Destri // 20.10.2025
Oracle accelera verso l’era zettaFLOPS: partnership record con Nvidia e AMD per la nuova infrastruttura AI

Oracle accelera verso l’era zettaFLOPS: partnership record con Nvidia e AMD per la nuova infrastruttura AI

Oracle annuncia una massiccia infrastruttura con oltre 18 zettaFLOPS di potenza basata su GPU Nvidia e AMD. Un progetto colossale che ridefinisce i limiti del cloud computing e rafforza il ruolo di Oracle Cloud Infrastructure nel mercato dell’IA.  »

Francesco Destri // 15.10.2025
I router Cisco 8223 interconnettono più data center a 51 Tbps per distribuire i workload AI

I router Cisco 8223 interconnettono più data center a 51 Tbps per distribuire i workload AI

Cisco presenta il router 8223 con chip Silicon One P200: 51,2 Tbps di capacità, efficienza energetica, sicurezza post-quantum e flessibilità per le reti AI di nuova generazione.  »

Francesco Destri // 09.10.2025
Pagina 1 di 30
Condividi