IBM ha annunciato una nuova architettura di riferimento progettata per il cosiddetto quantum-centric supercomputing, un paradigma che punta a integrare in modo strutturale i computer quantistici all’interno dell’ecosistema dei supercomputer tradizionali. L’iniziativa rappresenta un tentativo concreto di superare l’attuale separazione tra calcolo quantistico e HPC, creando un ambiente in cui diverse tipologie di processori possano collaborare per affrontare problemi scientifici di estrema complessità.

L’architettura delineata da IBM è pensata per far lavorare in modo coordinato processori quantistici, CPU e GPU, indipendentemente dal contesto operativo in cui vengono impiegati. L’obiettivo è permettere l’esecuzione di workload ibridi distribuiti tra sistemi on-premise, centri di ricerca e infrastrutture cloud, sfruttando le specificità di ciascuna tecnologia di calcolo. Così facendo, i processori quantistici non sostituiscono i sistemi classici, ma ne ampliano le capacità, affrontando le parti dei problemi governate da fenomeni quantistici che risultano difficilmente modellabili con gli approcci tradizionali.

Il modello proposto riunisce risorse eterogenee in un ambiente computazionale unificato. Accanto all’hardware quantistico, trovano infatti spazio infrastrutture di calcolo ad alte prestazioni basate su cluster di CPU e GPU, reti ad alta velocità e sistemi di storage condiviso. Questa integrazione è progettata per sostenere workload intensivi tipici della ricerca scientifica avanzata, dove simulazioni molecolari, modellazione dei materiali o analisi di sistemi complessi richiedono un livello di potenza computazionale che nessuna singola architettura può garantire in modo isolato.

Un elemento centrale dell’approccio è l’orchestrazione coordinata delle diverse risorse di calcolo. IBM prevede l’utilizzo di framework software aperti che consentano a sviluppatori e ricercatori di accedere alle capacità quantistiche attraverso strumenti familiari. Tra questi figura Qiskit, piattaforma open source che permette di progettare algoritmi quantistici e integrarli in flussi di lavoro più ampi. In questo modo, l’adozione del quantum computing diventa più accessibile, riducendo la distanza tra ricerca teorica e applicazioni concrete.

IBM supercomputing

L’architettura di riferimento IBM per il supercalcolo quantistico

Secondo Jay Gambetta, direttore di IBM Research e IBM Fellow, la visione alla base di questa evoluzione tecnologica affonda le proprie radici nelle intuizioni di Richard Feynman, che oltre quarant’anni fa ipotizzò l’esistenza di computer capaci di simulare direttamente i fenomeni della meccanica quantistica. Oggi, sostiene Gambetta, i sistemi quantistici dimostrano già la capacità di affrontare porzioni di problemi scientifici legati alla chimica, al comportamento molecolare e alla dinamica di sistemi complessi. La prospettiva futura consiste nel combinare queste capacità con il calcolo classico ad alte prestazioni.

Negli ultimi anni, diversi gruppi di ricerca hanno già sperimentato architetture di tipo quantum-centric utilizzando le piattaforme sviluppate da IBM. In uno studio condotto insieme a ricercatori dell’University of Manchester, dell’University of Oxford e dell’University of Regensburg, è stata sintetizzata una molecola half-Möbius, una struttura chimica inedita la cui configurazione elettronica è stata verificata attraverso calcolo quantistico.

Un altro esperimento rilevante ha visto coinvolta la Cleveland Clinic, che ha simulato una mini-proteina composta da oltre trecento atomi, uno dei modelli molecolari più complessi mai analizzati con l’ausilio di sistemi quantistici. Allo stesso tempo, un gruppo di ricerca formato da IBM, RIKEN e dall’University of Chicago è riuscito a determinare lo stato energetico fondamentale di sistemi quantistici ingegnerizzati, superando alcune metodologie basate esclusivamente su calcolo classico.

Un esempio particolarmente significativo di integrazione tra HPC e quantum computing riguarda il supercomputer Fugaku, ospitato nei laboratori RIKEN in Giappone. I ricercatori hanno realizzato una simulazione su larga scala di cluster ferro-zolfo, molecole fondamentali per numerosi processi biologici. L’esperimento è stato possibile grazie allo scambio continuo di dati tra oltre 150.000 nodi di calcolo del supercomputer e un processore quantistico IBM Quantum Heron installato nello stesso centro di ricerca.

La roadmap delineata da IBM prevede che questa architettura continui a evolversi con l’introduzione di nuovi algoritmi quantistici e con il contributo di un ecosistema globale di partner. Tra i progetti già avviati figura la collaborazione con il Rensselaer Polytechnic Institute, focalizzata sull’ottimizzazione della schedulazione dei workflow tra risorse di quantum computing e infrastrutture HPC, un passaggio chiave per rendere realmente operativi i sistemi di calcolo ibrido su larga scala.