Red Hat ha annunciato nuove funzionalità di Red Hat OpenShift AI, piattaforma basata su Red Hat OpenShift e Red Hat OpenShift Data Science che consente a data scientist e sviluppatori di poter contare su un ecosistema specializzato di partner per cogliere appieno l’innovazione dall’intelligenza artificiale. A tale scopo, Red Hat OpenShift AI supporta i servizi di IA generativa di IBM watsonx.ai, la piattaforma di intelligenza artificiale di IBM progettata per scalare le applicazioni e i servizi intelligenti alimentando la prossima generazione di modelli di base (foundation models).

Con l’affermarsi di Large Language Model (LLMs) come GPT-4 e LLaMA, i ricercatori e gli sviluppatori di applicazioni in tutti i settori stanno esplorando e studiando modi per trarre vantaggio da questi e altri foundation models. I clienti possono perfezionare i modelli commerciali o open source con dati specifici relativi al proprio settore per renderli più precisi per casi d’uso specifici. L’addestramento iniziale dei modelli di intelligenza artificiale è incredibilmente impegnativo dal punto di vista infrastrutturale e richiede piattaforme e strumenti specializzati prima ancora di considerare il servizio, la messa a punto e la gestione del modello. Senza una struttura in grado di soddisfare queste esigenze, le organizzazioni sono spesso limitate nell’utilizzo dell’IA/ML.

Red Hat OpenShift AI

OpenShift AI affronta queste sfide puntando a garantire una coerenza infrastrutturale in tutte le fasi, dall’addestramento alla distribuzione, fino all’inferenza, per sbloccare il potenziale dell’IA. Può essere utilizzato per perfezionare i modelli esistenti, risparmiando sui costi iniziali di addestramento, aumentando il time-to-value ed espandendo l’utilizzo dell’IA oltre i data scientist specializzati. I clienti con specifici requisiti normativi e di conformità, compresi gli ambienti air-gapped e disconnessi, possono preparare i dati e sviluppare, istruire e distribuire i modelli on-premise utilizzando OpenShift AI. Gli utenti possono anche sviluppare modelli in un cloud pubblico e distribuirli on-premise o nell’edge, utilizzando gli stessi strumenti e interfacce e fornendo un ambiente MLOps ibrido unico che consente la collaborazione tra operazioni IT, data science e sviluppatori di applicazioni.

I recenti miglioramenti di Red Hat OpenShift AI includono:

  • Pipeline di distribuzione per tracciare gli esperimenti AI/ML e flussi di lavoro ML automatizzati, il che aiuta data scientist e sviluppatori a pianificare i progetti di machine learning e ad automatizzare più rapidamente la distribuzione e gli aggiornamenti delle applicazioni
  • Model serving che ora include il supporto GPU per l’inferenza e runtime dei modelli di servizio personalizzati che migliorano le prestazioni di tali inferenze e la loro distribuzione
  • Il monitoraggio dei modelli che consente alle organizzazioni di gestire le prestazioni e le metriche operative da una dashboard centralizzata