All’evento NetApp Insight Xtra di Milano, l’Executive Vice President e Chief Product Officer dell’azienda Syam Nair ha presentato una visione strategica che ridefinisce il ruolo dell’infrastruttura dei dati nell’era dell’intelligenza artificiale. Nel corso del keynote e in un incontro avvenuto poco dopo con la stampa, Nair ha sottolineato come il focus dell’azienda si stia spostando dalle “semplici” infrastrutture di storage alla creazione di data platform unificate e nativamente abilitate all’analisi di big data e all’intelligenza artificiale e verso i data services.

Secondo Nair, nel contesto attuale, caratterizzato da volumi crescenti di dati non strutturati e dall’accelerazione nell’adozione dell’intelligenza artificiale generativa, lo storage tradizionale si rivela insufficiente. Questo sarebbe alla radice dei deludenti risultati mostrati da alcune ricerche recenti: il 60% dei progetti AI fallisce (Gartner) e l’86% non raggiunge per tempo la messa in produzione (IDC).

Il modello tradizionale prevede cinque fasi:

  1. scoperta e organizzazione dei dati:
  2. governance e sicurezza:
  3. contestualizzazione e arricchimento dei metadati;
  4. trasformazione (embedding, vettorizzazione);
  5. aggiornamento continuo.

Questo ciclo, efficace per dati strutturati e database relazionali, mostra limiti evidenti con i volumi di dati non strutturati generati dalle applicazioni AI generative.

Secondo Nair, “le aziende hanno bisogno di una piattaforma dati unificata e intelligente che permetta di modernizzare l’infrastruttura, supportare i carichi di lavoro AI e garantire sicurezza e resilienza, dall’on-premises al cloud”.

La risposta NetApp: Data Platform e AI Data Engine

La proposta di NetApp si articola su tre livelli. Alla base, una piattaforma storage unificata che integra file, oggetti e blocchi sul sistema operativo ONTAP, capace di scalare fino a dimensioni exabyte. Su queste fondamenta operano i servizi di protezione e sicurezza, seguiti dai servizi dati AI che permettono di estrarre valore direttamente alla fonte, senza estrazioni e spostamenti di dati.

Il punto qualificante è la disaggregazione di terza generazione, implementata in NetApp AFX, che separa indipendentemente capacità, performance e controller di storage, mantenendo le funzionalità enterprise integrate nella piattaforma anziché aggiunte successivamente.

I nodi di NetApp AFX

I nodi di NetApp AFX

L’AI Data Engine rappresenta l’elemento distintivo. Costruito su ONTAP e integrato con i cluster AFX, il motore genera automaticamente metadati attivi durante l’ingestione dei dati, creando un modello schematico globale. Il sistema promette di ridurre le copie superflue, applicare guardrail policy-based e rendere i dati immediatamente utilizzabili per i workflow AI.

“I dati non strutturati non hanno un significato a meno che qualcuno non costruisca effettivamente dei metadati, un modello semantico”, spiega Nair. “Il motore AI di NetApp automatizza questa costruzione semantica, rendendo i dati interrogabili e utilizzabili direttamente dallo storage”, a differenza di quanto avviene con le architetture che richiedono data lake separati o layer di metadati esterni.

Piattaforma dati unificata tra on-premises e cloud vecchi e nuovi

Un tema ricorrente è stato la centralità della natura ibrida dell’infrastruttura dati moderna, oggi resa più complessa da un’offerta cloud sempre più differenziata e particolare: dei neo-cloud dedicati all’elaborazione GPU, ai cloud locali e specializzati scelti per questioni di latenza o governance dei dati.

Come piattaforma dati unificata, NetApp occupa una posizione unica, potendo offrire la sua piattaforma sui tre principali hyperscaler con la disponibilità di Azure NetApp Files, Google Cloud NetApp Volumes e AWS FSx for NetApp ONTAP. Per Nair, questa integrazione permette di ottimizzare i servizi di storage per specifici carichi di lavoro ed estendere la soluzione a cloud provider emergenti.

Syam Nair, EVP e Chief Product Officer di NetApp singolaQuando i dati sono sulla piattaforma integrata, diventa possibile utilizzare funzionalità come FlexCache, che consente il caching trasparente dei dati e l’accesso diretto indipendentemente dalla posizione. Per esempio, è possibile addestrare un modello sul cloud di Google usando dati che sono residenti on-prem, senza che sia necessario duplicarli.

Nei carichi di lavoro distribuiti che richiedono accesso a dataset di riferimento comuni, avere un singolo namespace globale per i metadati elimina la necessità di riconciliare viste multiple dei dati.

Cyber resilience: protezione integrata

Il tema della sicurezza attraversa tutta la proposta. NetApp Ransomware Resilience introduce due funzionalità: Data Breach Discovery per identificare proattivamente potenziali violazioni, e Isolated Recovery Environment per il ripristino rapido (con RPO “quasi zero”, sostiene l’azienda).

L’Autonomous Ransomware Detection di ONTAP analizza i pattern di accesso ai dati in tempo reale, identificando anomalie indicative di attacchi di cifratura. Quando rileva comportamenti sospetti, il sistema crea automaticamente snapshot immutabili (tamper-proof), garantendo un punto di ripristino recente anche se l’attaccante dovesse riuscire a cifrare i dati primari.

L’Isolated Recovery Environment permette invece di validare i dati recuperati in un ambiente segregato, assicurandosi che non ci sia presenza di malware prima del ripristino in produzione.

La partita si gioca sui dati

L’evento Insight Xtra ha rivelato una NetApp che sta ridefinendo la propria proposizione di valore. Dal focus sulla qualità dello storage alla definizione di una piattaforma dati intelligente e unificata, il percorso è coerente e consapevole dei trend attuali.

Tuttavia, rimangono aspetti da chiarire: il ritmo effettivo di adozione delle nuove capacità da parte dei clienti, l’impatto economico reale, e il modo in cui NetApp continuerà a competere mentre gli hyperscaler investono ulteriormente in soluzioni proprietarie e partnership con le principali data platform.

In un momento in cui si parla sempre più insistentemente di cloud repatriation e cloud sovrani, data platform, analytics e intelligenza artificiale rappresentano il principale elemento che differenzia l’offerta degli hyperscaler da quella dei cloud locali.

Costruire una piattaforma dati ibrida può essere un primo passo per abilitare scelte che per qualcuno sono al momento impossibili, per lo meno in tempi brevi.