Mihaela van der Schaar, professoressa di Machine Learning, Intelligenza Artificiale e Medicina all’Università di Cambridge, ha tenuto al Policlinico Gemelli una lettura sull’I.A applicata alla medicina. “Se non fosse per la grande variabilità tra un individuo e l’altro, la medicina potrebbe essere benissimo una scienza e non un’arte”, sentenziava Sir William Osler a fine ‘800. E nel corso degli anni, il concetto di variabilità applicato alla medicina si è andato espandendo a dismisura, favorito dalle scienze omiche, che hanno aggiunto complessità, a un quadro già molto articolato.

Ma le diverse traiettorie di salute e malattia, pertinenti ai diversi individui sono influenzate anche dalla storia personale e dalle diverse esposizioni ambientali che fanno di ogni organismo un unicum difficilmente categorizzabile, anche all’interno delle linee guida. È per questo che anche nel terzo millennio la medicina resta un’arte che si esercita formulando giudizi e prendendo decisioni, sulla base di informazioni molto lontano dall’essere complete. Ma c’è un nuovo attore, ancora ai margini della relazione medico-paziente, che ha le potenzialità di trasformare l’arte della medicina in scienza: il machine learning.

ML e medico

Va detto subito – specifica la Professoressa Mihaela van der Schaarche il machine learning non può fare medicina, non potrà mai sostituirsi al medico insomma. La sua forza è però quella di fornire informazioni interpretabili, affidabili e actionable, cioè fruibili nella pratica clinica”. Con gli algoritmi di machine learning è possibile ad esempio creare calcolatori di rischio personalizzati, raccomandazioni di trattamento personalizzate, ipotesi generate dai dati, elaborazione di raccomandazioni affidabili, da utilizzare nella pratica clinica.

La grande promessa del machine learning in medicina è di portare la medicina di precisione al livello del singolo paziente, attraverso una migliore comprensione delle basi e delle traiettorie di salute e malattia. Il ML può fornire empowerment a medici e pazienti, migliorare i percorsi clinici, utilizzare meglio le risorse, abbattendo i costi, facilitare la scoperta di nuovi trattamenti, personalizzare le raccomandazioni cliniche, fornire strumenti di supporto operativi per la gestione degli ospedali. Implementato su larga scala potrebbe dunque avere un impatto trasformativo sulla salute della popolazione e sulle policy di public health.

Ma tutto ciò non è fattibile utilizzando gli strumenti di machine learning già disponibili, quelli off the shelf. È necessario creare una nuova generazione di strumenti ad hoc. Che è quello che la professoressa Van der Schaar sta cercando di fare, aprendo le porte del suo laboratorio alla comunità scientifica internazionale e mettendo a disposizione in open source una serie di algoritmi da lei sviluppati. “Gli ingredienti necessari per sviluppare strumenti di ML cutting-edge – spiega la Van der Schaar – sono i dati, anzi montagne di dati, la capacità di analizzarli non solo in modo statico, ma anche longitudinale (time series) e un’attenta valutazione degli esiti perché i risultati dell’applicazione di questi strumenti devono essere interpretabili e consentire di ‘quantificare’ l’incertezza”.

Democratizzare il ML

L’obiettivo è creare una vera partnership uomo-macchina, mirata non certo a esautorare la funzione del medico, che resta centrale nella cura del paziente, ma ad affinare le sue capacità, dotandolo di strumenti da terzo millennio. Ma siamo solo all’inizio e i punti da smarcare sono tanti e centrali. La conditio sine qua non, secondo Van der Schaar, per accelerare il cambiamento nell’healthcare è democratizzare il ML, rendendone gli strumenti fruibili liberamente (off patent) e rendendo il ML automatico e interpretabile. Fondamentale l’analisi dinamica dei dati e la capacità di fare previsioni (time to event) longitudinali, perché la variabile tempo è tra le più importanti da considerare (‘medicine is a time-series’). C’è poi il grande interrogativo inerente alla possibilità di personalizzare i trattamenti, che potrebbe essere affrontato dalla computistica controfattuale (il what if?, cioè il ‘e se ci fossimo comportati diversamente?…’).

I lavori pionieristici della Van der Schaar nel campo del ML automatico hanno già portato alla realizzazione di vari strumenti come l’AutoPrognosis, che consente di mettere a punto calcolatori di rischio clinici personalizzati (è stato per ora applicato a: fibrosi cistica, malattie cardio-vascolari, cancro della prostata, complicanze dopo protesizzazione d’anca, Covid-19, cancro della mammella; discectomia e fusione cervicale). AutoPrognosis è un pacchetto di ML open-source, state of the art, interpretabile; ma soprattutto facile da usare da parte di medici e non, interessati a sviluppare nuovi score di rischio, strumenti per la diagnostica personalizzata e la prognosi.

L’interpretabilità della logica dei risultati di ML resta un punto essenziale. Montagne di dati, testi e immagini finiscono nella scatola nera della ML; ma poi è necessario interpretarne il risultato e confrontare la scatola nera del ML, con la scatola grigia dell’uomo, cioè con la mente, l’intelletto. E ancora, trasformarla in scatola bianca, utilizzando meta-modelli simbolici.

Un potenziale e importante campo di applicazione del ML sono i trial clinici controllati (ogni anno se ne avviano oltre 1.800, metà dei quali in oncologia), che nel disegno attuale presentano tanti limiti e questo costituisce un problema non da poco, visto che le linee guida e quindi le nostre decisioni cliniche, ad esempio relative ad un trattamento, si basano sui risultati dei trial clinici randomizzati (Rct). In genere questi hanno una piccola casistica (in media 100-1000 pazienti, metà dei quali fungono da controlli e con il 20% è destinato a diventare drop out); altri problemi sono rappresentati dai costi, pari in media a oltre 40.000 dollari/paziente (il range è di 4-40 milioni di euro per trial), la durata, che si aggira in genere intorno a 1-2 anni (il 30% del tempo se ne va per la fase di reclutamento e ritarda l’80% dei trial). “Il ML in questo contesto – afferma Van der Schaar – offrirebbe l’opportunità di ridurre del 20% il numero dei pazienti richiesto; di rimpiazzare i controlli e drop out; di ridurre del 20% il costo-paziente, migliorando reclutamento, monitoraggio e operazioni. Il risparmio di costi per ogni trial si può quantificare intorno a 4-12 milioni, senza contare i mesi di tempo risparmiati per ogni trial”.

Integrare la grande ricchezza di dati del nostro G-Step, con gli algoritmi di ML della professoressa Van der Schaar – commenta Evis Sala, ordinario di radiologia presso l’Università Cattolica del Sacro Cuore, campus di Roma e di direttore del Centro Avanzato di Radiodiagnostica della Fondazione Policlinico Universitario Agostino Gemelli – rappresenterebbe l’inizio di un’importante partnership, ma anche una grande innovazione con un immediato e importante un impatto clinico. Noi abbiamo un prezioso data center, un gioiello, che è la base per costruire in questa direzione, quella del value based-medicine. Un altro potenziale campo di collaborazione è con il nostro Clinical trial center. Il concetto alla base di tutto – prosegue la professoressa Sala – è che più numerosi sono i dati a disposizione, maggiore la personalizzazione dell’assistenza che si può offrire al singolo paziente. Le ricadute di questo approccio sono moltissime, dalla personalizzazione delle cure, alla definizione di nuove linee guida, alla possibilità di validare i risultati di un trial su tante diverse popolazioni. La professoressa Van der Schaar è un matematico che ha lavorato nei più prestigiosi centri accademici del mondo, come nell’industria (Ibm); il bello delle sue ricerche è che cancellano i confini e la medicina a ‘compartimenti stagni’. Il suo è un esempio di ricerca applicata in molti campi, che consente di democratizzare l’healthcare, attraverso la condivisione del know how”.