Red Hat e AMD hanno annunciato una nuova fase della loro collaborazione strategica, volta a potenziare le capacità di intelligenza artificiale e a ottimizzare l’infrastruttura virtualizzata. Questo accordo si propone di espandere la gamma di soluzioni disponibili per i clienti nel contesto del cloud ibrido, con l’obiettivo di distribuire modelli AI più efficienti e modernizzare in modo più economico i carichi di lavoro basati su macchine virtuali (VM).

Nel contesto attuale, in cui la domanda e la varietà dei carichi di lavoro crescono rapidamente a causa dell’introduzione massiva dell’AI, molte aziende si trovano a dover fronteggiare limiti di capacità nei loro data center, spesso ancora fortemente orientati verso sistemi IT tradizionali. Per rispondere a questa esigenza, Red Hat e AMD combinano la potenza delle soluzioni open source di Red Hat con l’ampio portafoglio di architetture di calcolo ad alte prestazioni di AMD.

Una piattaforma ottimizzata per l’IA generativa

La collaborazione prevede l’integrazione di Red Hat AI con i processori x86 e le architetture GPU AMD per creare ambienti ottimizzati, economici e pronti alla produzione per carichi di lavoro AI. Le GPU AMD Instinct sono ora pienamente supportate su Red Hat OpenShift AI, fornendo agli utenti la potenza computazionale necessaria per applicazioni AI distribuite nel cloud ibrido, senza richiedere infrastrutture eccessivamente onerose.

In particolare, i test condotti da Red Hat e AMD con le GPU AMD Instinct MI300X su Red Hat Enterprise Linux AI e Microsoft Azure hanno dimostrato che è possibile gestire modelli linguistici (sia small che large) su più GPU all’interno di una singola VM, riducendo i costi di performance legati alla distribuzione su più VM.

AMD Red Hat

Collaborazione tecnica nella comunità vLLM

Red Hat e AMD stanno contribuendo attivamente anche allo sviluppo upstream del progetto vLLM, una libreria che permette un’inferenza AI più efficiente. Gli obiettivi della collaborazione includono:

  • Miglioramento delle performance sulle GPU AMD, attraverso l’ottimizzazione della libreria kernel AMD, l’utilizzo del Triton kernel e del formato FP8
  • Supporto multi-GPU potenziato, per migliorare la scalabilità e l’efficienza energetica dei carichi AI distribuiti, riducendo colli di bottiglia
  • Espansione dell’ecosistema vLLM grazie alla collaborazione con partner come IBM, accelerando lo sviluppo di strumenti sempre più performanti su hardware AMD

Questi progressi si traducono nella disponibilità di GPU Instinct per il Red Hat AI Inference Server, distribuzione aziendale di vLLM. Red Hat, il maggiore contributore commerciale al progetto, garantisce piena compatibilità tra vLLM e le GPU AMD, permettendo alle aziende di implementare modelli AI open source su hardware validato con prestazioni ottimizzate.

Un altro punto chiave della collaborazione è la possibilità di modernizzare i data center esistenti liberando risorse per progetti AI. Red Hat OpenShift Virtualization (una funzionalità della piattaforma Red Hat OpenShift) permette alle aziende di migrare e gestire i carichi di lavoro VM con la semplicità e l’agilità delle applicazioni cloud-native.

Questa soluzione è validata per i processori AMD EPYC, sfruttandone le prestazioni e l’efficienza energetica in ambienti ibridi. Su server di fascia enterprise come Dell PowerEdge, HPE ProLiant e Lenovo ThinkSystem, OpenShift Virtualization consente di unificare VM e container in un’unica piattaforma, abbattendo il TCO (Total Cost of Ownership) grazie a una maggiore densità di consolidamento e a risparmi su hardware, licenze e consumi energetici.