Al Data-Centric Innovation Summit di Intel, Navin Shenoy (Executive Vice President e General Manager, Data Center Group di Intel Corporation) ha presentato la strategia di Intel per il futuro del computing incentrato sui dati, una prospettiva più ampia del mercato potenziale totale (Total Addressable Market, TAM) e nuovi dettagli sulla roadmap dei prodotti Intel. Al centro di questa strategia c’è una piena comprensione di entrambe le maggiori sfide e opportunità che i nostri clienti hanno oggi davanti, con in testa la necessità di ottenere maggiore valore da enormi quantità di dati.

“Trovo sbalorditivo che il 90% dei dati mondiali sia stato generato negli ultimi due anni e gli analisti prevedono che i dati cresceranno esponenzialmente di 10 volte, raggiungendo i 163 zettabyte entro il 2025. Abbiamo una lunga strada da percorrere per sfruttare il potenziale di questi dati. Una stima attendibile calcola che solo l’1% circa di essi viene utilizzato, elaborato e impiegato in processi decisionali. Immaginate cosa potrebbe accadere se fossimo in grado di sfruttare efficacemente una quantità maggiore di questi dati su larga scala”, ha dichiarato Shenoy.

L’unione di dati e trasporto è un esempio perfetto di quanto potrebbe accadere. Il potenziale salvavita della guida autonoma è profondo: molte vite potrebbero essere salvate in tutto il mondo riducendo il numero di incidenti. Per raggiungere questo obiettivo, tuttavia, è necessaria la combinazione di tecnologie che operano sinergicamente: visione artificiale, edge computing, mappatura, cloud, intelligenza artificiale.

Ciò richiede un cambiamento significativo nel modo in cui si considerano il computing e la tecnologia datacentrica basata sui dati. Bisogna esaminare i dati in modo olistico e comprendere come trasferirli più velocemente, archiviarne di più ed elaborare ogni cosa dal cloud alla periferia della rete.

Implicazioni per l’infrastruttura

Questo approccio end-to-end, omnicomprensivo, è fondamentale per la strategia di Intel e quando si analizza il mercato da questo punto di vista, aiutando i clienti a trasferire, archiviare ed elaborare i dati, le opportunità sono enormi. “In effetti, abbiamo rivisto il nostro TAM da 160 miliardi di dollari nel 2021 a 200 miliardi nel 2022 per il nostro business datacentrico. Si tratta della più grande opportunità nella storia dell’azienda”. Durante il suo keynote al Data-Centric Innovation Summit, Shenoy ho delineato gli investimenti che Intel sta facendo in un ampio portafoglio per massimizzare questa opportunità.

Trasferimenti più veloci

Con l’esplosione dei dati emerge la necessità di trasferirli più velocemente, specialmente nell’ambito degli hyperscale data center. Connettività e rete sono diventati i colli di bottiglia per utilizzare e sfruttare in modo più efficace l’High Performance Computing. Innovazioni come la fotonica del silicio (silicon photonics) di Intel sono state progettate per superare questi limiti, grazie alla capacità di integrare il laser nel silicio e, in definitiva, offrire il minor costo e consumo per bit e la massima larghezza di banda.

spectre

Intel sta espandendo ulteriormente il portafoglio di connettività con una nuova e innovativa linea di prodotti SmartNIC (nome in codice Cascade Glacier) che si basa su FPGA Intel Arria 10 e che consente prestazioni ottimizzate per i sistemi basati su processori Intel Xeon. I clienti stanno già provando dei campioni e Cascade Glacier sarà disponibile nel primo trimestre del 2019.

Maggiore archiviazione

Per molte applicazioni in esecuzione nei data center di oggi, non si tratta solo di spostare i dati, ma di archiviarli nel modo più economico. A tal fine Intel ha condiviso nuove metriche delle prestazioni che dimostrano come i sistemi basati su memoria persistente Intel Optane DC siano in grado di ottenere guadagni prestazionali fino a 8 volte superiori rispetto a configurazioni basate esclusivamente su DRAM. Clienti come Google, il CERN, Huawei, SAP e Tencent vedono già questo risultato come un punto di svolta.

Elaborare ogni cosa

Gli investimenti di Intel per l’ottimizzazione dei processori Intel Xeon e degli FPGA Intel per l’intelligenza artificiale stanno dando risultati. Nel 2017 più di 1 miliardo di dollari di ricavi proveniva da clienti che eseguono intelligenza artificiale su processori Intel Xeon nei data center. “E continuiamo a migliorare l’addestramento dell’intelligenza artificiale e le prestazioni di inferenza. In totale, dal 2014 le nostre prestazioni sono migliorate di ben oltre 200 volte”, continua Shenoy.

Al Data-Centric Innovation Summit Intel ha infine divulgato la roadmap di prossima generazione per la piattaforma Intel Xeon:

  • Cascade Lake è un futuro processore scalabile Intel Xeon basato sul processo di produzione a 14 nm che introdurrà la memoria persistente Intel Optane DC e una serie di nuove funzionalità per l’AI chiamate Intel DL Boost. Questo acceleratore integrato per l’intelligenza artificiale velocizzerà i carichi di lavoro di inferenza del deep learning, con un riconoscimento previsto delle immagini 11 volte più veloce rispetto ai processori scalabili Intel Xeon della generazione attuale lanciati a luglio 2017. L’avvio della fornitura di Cascade Lake è previsto più avanti nel corso dell’anno.
  • Cooper Lake è un futuro processore scalabile Intel Xeon basato sul processo di produzione a 14 nm. Cooper Lake introdurrà una piattaforma di nuova generazione con significativi miglioramenti delle prestazioni, nuove funzionalità di I/O, nuove funzionalità Intel DL Boost (Bfloat16) che migliorano le prestazioni di addestramento di AI/deep learning e ulteriori innovazioni per la memoria persistente Intel Optane DC. La fornitura di Cooper Lake è prevista per il 2019.
  • Ice Lake è un futuro processore scalabile Intel Xeon basato sul processo di produzione a 10 nm che condivide una piattaforma comune con Cooper Lake ed è previsto come prodotto successivo con fornitura nel 2020.