Durante i lavori dell’EuroHPC summit abbiamo incontrato Daniele Gregori, Chief Scientific Officer di E4 Computer Engineering e Segretario dello steering board di European Technology Platform for HPC (ETP4HPC), l’associazione di aziende che – insieme alla Commissione europea e ai singoli stati membri (più qualche aggiunta extracomunitaria), compongono appunto il consorzio europeo per l’high performance computing.

E4 è anche membro di QuIC, il Quantum Industry Consortium, focalizzato sulle tecnologie quantistiche, tema di cui abbiamo discusso con Gregori. Quella che segue è una sintesi della chiacchierata, editata per brevità e chiarezza.

A che punto è lo sviluppo delle tecnologie di quantum computing?
Daniele Gregori Chief Scientific Officer di E4 Computer Engineering

Daniele Gregori, Chief Scientific Officer di E4 Computer Engineering

Dal punto di vista matematico è stata dimostrata l’efficacia del quantum computing nella risoluzione di una classe di problemi chiamati non polinomiali e che possono avere applicazioni in vari ambiti, dalla farmacologia, alla logistica, a problemi di crittografia e molto altro, dove l’uso del quantum computing permette di velocizzare calcoli che altrimenti richiederebbero tempi di elaborazione lunghissimi. Questo vale in generale anche per casistiche non polinomiali, qualora si riesca a trovare un algoritmo, ma questa branca è ancora nella fase di ricerca matematica e non è ancora arrivata al livello di informatica matura.

Il problema oggi è riuscire a ingegnerizzare questa matematica, trovare cioè delle macchine che riescano a implementare questi algoritmi. A oggi non esiste uno standard e si stanno provando tante strade diverse. Si va dalle tecnologie dei superconduttori, agli atomi neutri, ai fotoni, agli ioni intrappolati. Con EuroHPC, l’UE sta infatti finanziando tutti questi filoni di ricerca, ancora in fase preliminare.

Recentemente però si sentono sempre più annunci di aziende che inaugurano calcolatori quantistici sempre più potenti… Come stanno le cose?

Oggi tutte le macchine sono a livello prototipale ed estremamente costose, in cui si cerca di aumentare il numero di qubit (l’unità di elaborazione minima del quantum computing), ma c’è una importante precisazione da fare.

Spesso si sentono annunci roboanti su nuove macchine con 1.000 qubit fisici, ma per via della correzione d’errore tipico degli stati quantistici, il numero di qubit logici effettivamente utilizzabili per il calcolo può essere da 20 a 100 volte inferiore a quello dei qubit fisici, in base alla tecnologia impiegata.

Salvo casi specifici come le macchine chiamate annealer, che lavorano bene solo su specifici problemi di ottimizzazione, per quanto riguarda le macchine digitali general purpose siamo relativamente indietro.

Alcune componenti simboliche dei diversi progetti europei di Quantum Computing in mostra nella sezione “Quantum Tunnel” nell’area espositiva dell’EuroHPC Summit 2025 a Cracovia.

Alcune componenti simboliche dei diversi progetti europei di Quantum Computing in mostra nella sezione “Quantum Tunnel” nell’area espositiva dell’EuroHPC Summit 2025 a Cracovia.

Infatti, di recente, il CEO di Nvidia Jensen Huang ha affermato che mancano almeno 20 anni per l’utilizzo pratico del quantum computing. Ha ragione lui?

Ciascuno esagera un po’ da un verso, un po’ dall’altro. Oggi siamo nella fase chiamata NISQ (Noisy Intermediate-Scale Quantum System), caratterizzata da sistemi sensibili al rumore e nei quali bisogna ridurre il numero di qubit per mitigare l’instabilità del loro stato.

Anche per questo motivo, ricerca e applicazioni impiegano computer tradizionali in grado di emulare le funzioni di un quantum computer. Oggi un emulatore con GPU di Nvidia arriva tranquillamente a 40 qubit logici, anche di più per alcuni tipi di problema.

Quello che si sta aspettando è il cosiddetto vantaggio quantistico, cioè macchine con un numero di qubit logici maggiore di quelli che si possono avere in un emulatore odierno. È ragionevole pensare che da qui a 4-5 anni si potrà già avere un vantaggio con macchine fisiche, reali, almeno in alcune applicazioni.

Già oggi stiamo facendo ricerche molto interessanti, per esempio in campo farmaceutico, e quel che vediamo è che già un passaggio a 50-60 qubit logici potrebbe far superare una soglia che sbloccherebbe capacità importanti nella ricerca di nuove molecole.

In attesa del vantaggio quantistico, cosa dovrebbero fare aziende e governi?

Con in mente questo orizzonte a 4-5 anni, punterei a usare emulatori per studiare casi d’uso e fare il porting degli algoritmi attuali, in modo da essere pronti a implementarli quando ci saranno macchine in grado di offrire veramente il vantaggio.

Con la fase ulteriore si passerà poi dal vantaggio alla superiorità quantistica, quando le macchine avranno un numero di qubit molto grande e potremo applicare algoritmi ancora più complessi.

Come E4 Computer Engineering siete coinvolti in diversi progetti europei e italiani sul quantum computing. Cosa bolle in pentola?

Noi abbiamo vinto tre progetti in risposta a bandi emessi dall’Italian Center for Supercomputing (ICSC) e legati al PNRR: uno con la farmaceutica Dompé per fare ricerca nel settore della dinamica molecolare o molecular docking; un altro con Relab, azienda di Reggio Emilia con cui stiamo affrontando problemi di ottimizzazione per la segmentazione della clientela con algoritmi quantistici; il terzo riguarda invece l’integrazione del quantum computing con i supercomputer tradizionali.

Visto che le macchine quantistiche saranno poche rispetto alle risorse di High Performance Computing, l’idea è di realizzare algoritmi ibridi che possano ottimizzare i calcoli suddividendo i calcoli tra i calcolatori più efficaci per quel compito specifico.

Stiamo quindi lavorando uno schedulatore dei job su questo tipo di infrastrutture ibride, applicando una tecnica chiamata malleabilità, che prevede il rilascio in runtime delle risorse che non sono utilizzate al momento. Questo perché, a seconda delle tecnologie quantistiche impiegate, si possono avere prestazioni molto diverse. I superconduttori sono estremamente rapidi rispetto agli HPC tradizionali, mentre quelle ad atomi neutri possono impiegare ore. In un determinato momento, quindi, il calcolatore quantistico o quello tradizionale possono rimanere in attesa della controparte, inutilizzati. Implementando la malleabilità nel middleware, la risorsa non utilizzata può essere liberata per altri scopi.

A livello europeo, siamo membri di EuroQCS-Italy, uno dei due Quantum Center of Excellence selezionati da EuroHPC, assieme al CINECA, l’Università di Padova e altri. Lì ci occuperemo delle parti di dinamica molecolare e crittografia.

Nella competizione globale, come è messa l’Europa rispetto a Stati Uniti e Cina?

Difficile a dirsi per quanto riguarda la Cina, perché non trapelano molte informazioni. Io frequento la IEEE Quantum Week, che è la fiera di riferimento del settore. Li i cinesi fanno delle relazioni ai convegni, ma poi non mostrano nulla nella parte espositiva, dove invece sono ben presenti americani ed europei. Si fa quindi fatica a relazionarsi e a capire bene qual è lo stato a livello industriale.

Nel confronto con gli Stati Uniti, l’impressione è che l’Europa sia partita più tardi e con investimenti più contenuti. Per esempio, negli USA il laboratorio di fisica delle particelle Fermilab è stato riconvertito in centro di ricerca per il quantum computing. Hanno ricevuto un primo contratto di 600 milioni in 5 anni, pronto a essere rinnovato, di cui beneficiano anche le aziende che lavorano nel laboratorio, come Righetti. C’è un ordine di grandezza in più rispetto all’Europa, e due rispetto all’Italia. E Fermilab è “solo” il centro che fa capo al Dipartimento dell’Energia.

C’è quindi un ritardo di almeno due anni, e molti più fondi, in ciascuna delle tecnologie quantistiche. Fortunatamente i bandi europei vincolano i progetti all’uso di tecnologie europee, in modo da permettere alle nostre aziende di recuperare questo gap. Vedremo tra un paio di anni se ci saremo riusciti.