Nelle scorse ore Google ha svelato il suo tanto vociferato processore ARM per data center: si chiama Axion e arriva nove anni dopo il primo chip personalizzato della grande G. Se però fino a questo momento la maggior parte dell’attenzione si è concentrata sullo sviluppo di Tensor Processing Unit (TPU) più veloci e capaci per accelerare i carichi di lavoro interni per il machine learning, ora Google ha deciso di compiere un ulteriore passo avanti costruendo un proprio microprocessore ARM personalizzato.

Malignamente, si potrebbe aggiungere “finalmente”, considerando che Google è l’ultimo cloud provider statunitense a lanciare le proprie CPU. I processori Graviton di Amazon annunciati nel 2018 sono ora alla quarta generazione, mentre il chip Cobalt 100 di Microsoft basato sempre su ARM è stato annunciato lo scorso autunno. Axion si basa sul progetto Neoverse V2 di ARM, che utilizza l’architettura e il set di istruzioni standard ARMv9. Al momento non sono stati specificati dettagli come il numero di core, la tecnologia di processo, la configurazione della cache o della memoria.

Sappiamo però che l’architettura Neoverse V2 può supportare configurazioni fino a 256 core, anche se finora i progetti di Nvidia e AWS basati su V2 hanno raggiunto rispettivamente 72 e 96 core. Secondo quanto riportato da Google, Axion offrirà prestazioni superiori di circa il 30% rispetto alle più veloci istanze generiche basate su ARM oggi disponibili.

google axion

Messo a confronto con i processori comparabili di attuale generazione di Intel e AMD, Axion sarebbe inoltre fino al 50% più veloce e al 60% più efficiente, anche se queste affermazioni di Google si riferiscono a dati interni non meglio specificati. La cosa certa è che Axion è stato progettato per funzionare insieme ai microcontroller Titanium di Google, che funzionano essenzialmente come unità di elaborazione dati (DPU) per le operazioni ad alta intensità di calcolo come quelle di rete, sicurezza e archiviazione, liberando il processore per eseguire i carichi di lavoro dei clienti.

Per quanto riguarda l’impiego di Axion, Google afferma di aver già iniziato la transizione verso i sistemi ARM di molti dei suoi servizi cloud e di piattaforma pubblicitaria tra cui BigTable, Spanner, BigQuery, Earth Engine e YouTube ads, in previsione della migrazione verso Axion.

Per quanto concerne invece i carichi di lavoro dei clienti, Google afferma che Axion è ideale per i server web, i microservizi, i database, le cache in-memory, l’analisi dei dati, l’elaborazione dei media e l’addestramento e l’inferenza dell’intelligenza artificiale basate su CPU.

Oltre ad Axion, ci sono novità anche per tutti i livelli dell’architettura AI Hypercomputer di Google:

  • Miglioramenti hardware ottimizzati per le prestazioni, fra cui la disponibilità generale di Cloud TPU v5p e di A3 Mega VM alimentate da GPU NVIDIA H100 Tensor Core con prestazioni più elevate per il training su larga scala e capacità di rete migliorate
  • Ottimizzazioni del portafoglio di storage per i carichi di lavoro AI, tra cui Hyperdisk ML, un nuovo servizio di storage a blocchi ottimizzato per i workload di inferenza/servizio AI, e nuove capacità di caching in Cloud Storage FUSE e Parallelstore, che migliorano il throughput e la latenza del training e dell’inferenza
  • Progressi nel software open, tra cui l’introduzione di JetStream, un motore di inferenza ottimizzato per il throughput e la memoria per modelli linguistici di grandi dimensioni, che offre prestazioni più elevate per dollaro su modelli aperti come Gemma 7B, e le release di JAX e PyTorch/XLA che migliorano le prestazioni sia su Cloud TPU che su GPU NVIDIA
  • Nuove opzioni di consumo flessibile con Dynamic Workload Scheduler, tra cui la modalità calendario per garantire l’orario di avvio e la modalità di avvio flessibile per ottimizzare i costi