Con AI Enterprise, Red Hat punta a gestire tutta la catena dell’AI, dal “ferro” fino agli agenti

Red Hat ha compiuto un passo deciso verso la piena industrializzazione dell’intelligenza artificiale con l’annuncio di Red Hat AI Enterprise, una piattaforma integrata pensata per implementare, governare e scalare modelli, agenti e applicazioni AI in ambienti hybrid cloud. L’iniziativa si inserisce nel più ampio portfolio Red Hat AI, che comprende Red Hat AI Inference Server, Red Hat OpenShift AI e Red Hat Enterprise Linux AI, delineando uno stack coerente che unisce infrastruttura, runtime e capacità agentiche avanzate.
Con questo annuncio, Red Hat punta a superare la frammentazione tipica delle sperimentazioni AI e a trasformare l’adozione in un processo standardizzato, ripetibile e governato secondo le logiche del software enterprise. Il mercato sta infatti evolvendo rapidamente da chatbot isolati a flussi di lavoro autonomi ad alta densità computazionale, che richiedono integrazione profonda con sistemi, dati e policy aziendali. Molte organizzazioni restano però bloccate in progetti pilota incapaci di scalare a causa di tool eterogenei e infrastrutture disallineate.
Red Hat AI Enterprise nasce proprio per colmare questa discontinuità, unificando ciclo di vita dei modelli, gestione degli agenti e operazioni di inferenza su una base Kubernetes consolidata. Costruita su Red Hat OpenShift, la piattaforma promette scalabilità coerente, sicurezza enterprise e interoperabilità con strumenti già adottati nei contesti mission-critical. L’approccio “dal metal all’agent” sintetizza l’ambizione di integrare hardware accelerato da GPU, sistema operativo Linux e logica applicativa intelligente in un unico framework operativo.
Dal punto di vista funzionale, Red Hat AI Enterprise offre inferenza ad alte prestazioni attraverso il motore vLLM e il framework distribuito llm-d, con l’obiettivo di ottimizzare l’esecuzione di modelli generativi su architetture hardware eterogenee. La piattaforma include capacità di fine-tuning, personalizzazione e deployment degli agenti, mantenendo la promessa di supportare qualsiasi modello su qualsiasi hardware, in ambienti on-premise, edge o cloud pubblico.
Un elemento chiave è la collaborazione con NVIDIA, che ha portato alla co-progettazione della Red Hat AI Factory con NVIDIA combinando Red Hat AI Enterprise e NVIDIA AI Enterprise per accelerare la messa in produzione dell’AI su infrastrutture GPU di nuova generazione. Il supporto hardware si estende alle GPU Blackwell Ultra e agli acceleratori AMD MI325X, oltre a includere un’anteprima tecnologica per l’inferenza generativa su CPU Intel orientata ai modelli linguistici di piccole dimensioni.
Inoltre, con Red Hat AI 3.3, l’azienda amplia ulteriormente l’ecosistema. L’OpenShift AI Catalog integra versioni validate e pronte per la produzione di modelli come Mistral-Large-3, Nemotron-Nano e Apertus-8B-Instruct, insieme alla possibilità di implementare modelli di frontiera come DeepSeek-V3.2 con sparse attention. Sul piano multimodale si registrano miglioramenti significativi, tra cui un’accelerazione di Whisper fino a tre volte, supporto geospaziale e decodifica speculativa EAGLE potenziata, oltre a capacità evolute di tool calling per workflow agentici complessi.
Un’innovazione rilevante è l’introduzione in anteprima del paradigma Models-as-a-Service. Attraverso un gateway API centralizzato, i team IT possono fornire accesso self-service a modelli ospitati privatamente, mantenendo controllo, tracciabilità e governance. Questo approccio favorisce l’adozione interna dell’AI senza sacrificare requisiti di sicurezza e conformità.
Sul fronte operativo, Red Hat introduce un modello GPU-as-a-Service interno, con orchestrazione intelligente delle risorse e checkpoint automatici per preservare lo stato dei job di training a lungo termine. Questa funzione riduce il rischio di perdita di avanzamento in ambienti dinamici e consente maggiore prevedibilità dei costi computazionali. Infine, il nuovo Red Hat AI Python Index consolida il ciclo di vita dai dati al modello, offrendo repository rafforzati di strumenti critici come Docling, SDG Hub e Training Hub con l’obiettivo di passare da pipeline sperimentali a workflow produttivi sicuri e replicabili.
(Immagine in apertura: Shutterstock)

