L’edge computing sta rapidamente perdendo la sua reputazione di concetto marginale e sia gli utilizzatori, sia i fornitori stanno concentrando la loro attenzione sul prossimo obiettivo di questa tecnologia: implementazione e funzionamento completamente autonomi.

L’esperienza di implementazione perimetrale si sta avvicinando alla semplicità dell’unboxing di un nuovo smartphone, afferma Teresa Tung, dirigente tech presso la società di consulenza IT Accenture. “Stiamo assistendo a una tecnologia automatizzata che semplifica la gestione della complessità unica dell’edge per le implementazioni di applicazioni, rete e sicurezza”.

La capacità di creare e gestire applicazioni containerizzate consente lo sviluppo e l’implementazione senza interruzioni nel cloud, con l’edge che diventa semplicemente un luogo specializzato con vincoli di risorse più severi, afferma Tung. “I protocolli di comunicazione mesh wireless auto-organizzanti e autoriparanti, come Zigbee, Z-Wave, ISA100.11a o WirelessHART, possono creare reti in cui i dispositivi possono essere implementati ad hoc e autoconfigurati”.

Il decentramento degli ambienti IT per comprendere i sistemi edge comporta sfide specifiche, afferma Matteo Gallina, consulente principale della società di consulenza e ricerca tecnologica globale ISG. “La gestione di dispositivi e servizi deve essere eseguita al di fuori della sfera di gestione tradizionale, incluse la gestione di dispositivi fisicamente inaccessibili, un’elevata diversità di soluzioni e sistemi operativi, diversi requisiti di sicurezza e altro”, afferma. “Quanto più grandi e dispersi diventano i sistemi, tanto più significativo è il ruolo dell’automazione per garantire efficacia e affidabilità”.

L’innovazione tecnologica dell’automazione è guidata da comunità open source

La tendenza all’automazione delle implementazioni edge non è dissimile dal percorso nell’IA, dove le innovazioni sono guidate da gruppi open source, produttori di infrastrutture e fornitori di servizi cloud, afferma Tung, che osserva anche come le comunità open source, come LF Edge, stiano guidando innovazioni e costruendo definizioni di standard critici in aree come comunicazione, sicurezza e gestione delle risorse.

“I fornitori di infrastrutture stanno creando soluzioni che consentono al computing di essere eseguito ovunque e integrato in qualsiasi cosa”, afferma Tung. “Ciò include nuove funzionalità hardware a bassissima potenza, ultraveloci, connesse ovunque e ultra sicure e private. Il 5G offre nuove opportunità ai fornitori di apparecchiature di rete e agli operatori di telecomunicazioni per innovare con reti private e pubbliche con capacità di edge computing integrate”.

Allo stesso tempo, le innovazioni dei provider di servizi cloud stanno semplificando l’estensione delle pratiche di gestione e DevOp cloud centralizzate all’edge. “Proprio come il cloud centrale consente a qualsiasi sviluppatore di accedere facilmente ai servizi, ora stiamo assistendo alla stessa cosa per tecnologie come 5G, robotica, digital twin e IoT”, continua Tung.

L’integrazione software-defined di più servizi di rete è emersa come l’approccio tecnologico più importante per automatizzare le implementazioni edge, afferma Ron Howell, architetto di rete di Capgemini Americas. La sicurezza di rete, se dotata di metodi di implementazione Zero Trust che incorporano funzionalità edge SASE, può migliorare notevolmente l’automazione e semplificare ciò che serve per implementare e monitorare una soluzione di edge computing. Inoltre, una volta implementati, gli strumenti e i metodi di osservabilità dello stack completo che incorporano AIOps aiuteranno a mantenere i dati e le risorse di edge computing disponibili e affidabili in modo proattivo.

L’intelligenza artificiale applicata all’edge della rete è ora ampiamente considerata come la via principale per la disponibilità dell’edge della rete. AIOps, se utilizzato sotto forma di osservabilità dello stack completo, è un miglioramento chiave”, afferma Howell.

Sono già disponibili diverse opzioni per aiutare le organizzazioni che cercano di spostarsi verso l’autonomia dell’edge. “Queste iniziano con l’onboarding e la gestione delle risorse fisiche e funzionali e includono software automatizzati e aggiornamenti di sicurezza e test automatici dei dispositivi”, spiega Gallina. Se un dispositivo funziona con una qualche forma di funzionalità ML o IA, sarà necessario AIOps sia a livello di dispositivo per mantenere aggiornato il modello ML locale e garantire che vengano prese decisioni corrette in qualsiasi situazione, sia all’interno qualsiasi backbone ML/IA che potrebbe in locale o in sistemi perimetrali centralizzati.

 

Esperienze fisiche e digitali si uniscono all’edge

Tung usa il termine “phygital” per descrivere il risultato che si ottiene quando le pratiche digitali vengono applicate alle esperienze fisiche, come nel caso della gestione autonoma dei data center periferici. “Vediamo la creazione di esperienze phygital altamente personalizzate e adattive come l’obiettivo finale. In un mondo phygital, chiunque può immaginare un’esperienza, costruirla e ridimensionarla.”

In un ambiente di edge computing che integra processi digitali e dispositivi fisici, la gestione pratica della rete viene notevolmente ridotta o eliminata al punto in cui i guasti e i tempi di inattività della rete vengono rilevati e risolti automaticamente e le configurazioni vengono applicate in modo coerente in tutta l’infrastruttura, semplificando e rendendo più veloce la scalabilità.

edge_computing_red_hat

Il controllo automatico della qualità dei dati è un altro potenziale vantaggio. “Ciò comporta una combinazione di dati dei sensori, analisi dell’edge o elaborazione del linguaggio naturale (NLP) per controllare il sistema e fornire i dati in loco”, afferma Gallina. Un altro modo in cui un ambiente edge autonomo può avvantaggiare le aziende è con il provisioning hardware remoto “zero touch” su larga scala, con il sistema operativo e il software di sistema scaricati automaticamente dal cloud.

Gallina osserva che un numero crescente di dispositivi edge è ora dotato di sistemi operativi dedicati e vari altri tipi di strumenti di supporto. “Le applicazioni e i marketplace edge pronti all’uso stanno iniziando a diventare disponibili, così come un numero crescente di progetti open source”.

I provider stanno inoltre lavorando a soluzioni per gestire senza problemi le risorse perimetrali di quasi tutti i tipi e con qualsiasi tecnologia sottostante. Ad esempio, i progetti software open source orientati all’edge, come quelli ospitati dalla Linux Foundation, possono favorire ulteriormente l’adozione su larga scala.

Anche l’hardware ottimizzato per l’intelligenza artificiale è una tecnologia di edge computing emergente, afferma Gallina, con molti prodotti che offrono interoperabilità e resilienza. “Le soluzioni e i servizi per la raccolta dei dati edge (controllo della qualità, gestione e analisi) si espanderanno enormemente nei prossimi anni: proprio come hanno fatto le applicazioni native del cloud”.

Numerose tecnologie sono già disponibili per le aziende che prendono in considerazione l’automazione dell’edge, comprese le offerte di sviluppatori di hyperscaler e altri fornitori specializzati. Un esempio è KubeEdge, che offre Kubernetes, un sistema open source per automatizzare la distribuzione, la scalabilità e la gestione delle applicazioni containerizzate. Gallina osserva che nel 2021 ISG ha classificato gli integratori di sistemi Atos, Capgemini, Cognizant, Harman, IBM e Siemens come leader globali nella tecnologia AI on edge. Tra i principali fornitori di edge computing ci sono gli hyperscaler (AWS, Azure, Google), nonché i provider di piattaforme edge ClearBlade e IBM.

Le funzionalità specifiche dell’edge offrono autonomia e affidabilità

I fornitori stanno integrando funzionalità di disponibilità sia digitali che fisiche nelle loro offerte nel tentativo di rendere la tecnologia edge più autonoma e affidabile. I provider generalmente utilizzano due metodi per fornire autonomia e affidabilità: sensori interni e componenti hardware ridondanti. I sensori integrati, ad esempio, possono utilizzare il monitoraggio in loco per controllare l’ambiente, rilevare e segnalare anomalie e possono essere combinati con componenti di failover per il livello di ridondanza richiesto.

Tung elenca molti altri approcci:

  • Funzionalità fisiche a prova di manomissione progettate per proteggere i dispositivi da accessi non autorizzati
  • Identificatori sicuri integrati nei chipset che consentono di autenticare i dispositivi in modo semplice e affidabile
  • Protocolli di rete autoconfiguranti, basati su reti ad hoc e mesh per garantire la connettività quando possibile.
  • Configurazioni di avvio partizionate in modo che gli aggiornamenti possano essere applicati senza il rischio di bricking dei dispositivi se l’installazione fallisce
  • Funzionalità di watchdog hardware per garantire che i dispositivi si riavviino automaticamente se non rispondono.
  • Controllo dell’integrità del tempo di boot da una fonte sicura di attendibilità, in modo da proteggere i dispositivi dall’installazione di hardware dannoso
  • Elaborazione affidabile e ambienti di esecuzione sicuri per garantire l’esecuzione di elaborazione approvata su dati protetti e privati
  • Firewall con rilevamento di anomalie che rilevano comportamenti insoliti, indicativi di guasti emergenti o accessi non autorizzati

Auto-ottimizzazione e intelligenza artificiale

Le reti richiedono un numero quasi infinito di impostazioni di configurazione e messa a punto per funzionare in modo efficiente. “Le reti Wi-Fi devono essere regolate per la potenza del segnale, i firewall devono essere costantemente aggiornati con il supporto per nuovi vettori di minacce e i router edge necessitano di configurazioni in continua evoluzione per far rispettare gli accordi sul livello di servizio (SLA)”, afferma Patrick MeLampy di Juniper Networks. “Quasi tutto questo può essere automatizzato, risparmiando lavoro ed errori umani”. L’auto-ottimizzazione e l’intelligenza artificiale sono quindi necessarie per operare all’edge della rete e determinare come gestire il cambiamento.

Tirando le somme…

L’edge non è una singola tecnologia, ma una raccolta di tecnologie che lavorano insieme per supportare una topologia completamente nuova in grado di connettere facilmente dati, intelligenza artificiale e azioni, conclude Tung. “Le più grandi innovazioni però devono ancora arrivare”.

Nel frattempo, il pendolo si sta spostando verso centri perimetrali di rete più numerosi ma più piccoli situati più vicini alle esigenze dei clienti, accompagnati da servizi cloud più grandi in grado di gestire carichi di lavoro aggiuntivi meno mission-critical e meno sensibili alla latenza, afferma infine Howell. “L’unico fattore che rimane immutabile è che le informazioni devono essere sempre altamente disponibili. Questa prima regola dei data center non è infatti cambiata: servizi di alta qualità sempre disponibili.